EM
Update
结合两个文章的链接和UBM实例,进行的推导。
J向领导汇报通俗解释版:
我们假设有三个事件
,那么对于一个项目,用户点击的概率就是
,我们的目的就是估计其中的的概率进行排序
注意我们看到的点击和不点击都只是事件,而不是背后的概率。所以不是说点击了,
我们引入EM算法,去估算,得到这样一个公式,用条件概率去计算事件的概率。
看下图,主要是第一张图,里面讲解了怎么推导。
基本将EM算法和UBM算法搞懂了。
Representation
EM算法是一种迭代算法,用于含有隐变量(hidden variable)的概率模型参数的极大似然估计,记住remember该算法意义,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望(expectation);M步,求极大( maximization ),所以这一算法称为期望极大算法(expectation maximization algorithm),简称EM算法。
如果概率模型的变量都是观测变量,那么给定数据之后就可以直接使用极大似然法或者贝叶斯估计模型参数。但是当模型含有隐含变量的时候就不能简单的用这些方法来估计,EM就是一种含有隐含变量的概率模型参数的极大似然估计法。
似然函数是一种关于统计模型中的参数的函数,表示模型参数中的似然性。
注意与最大似然估计中的似然函数是联合概率乘积不同(这是更复杂的似然函数),而这里是简单的似然函数。
概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估计。
在已知某个参数B时,事件A会发生的概率写作,而当未知参数B时,表示为已知有事件A发生时,参数B发生的似然性(“概率”)。具体解释为:似然函数(数值上与条件概率相等)表示为在事件A发生时,参数B=b的似然性。J看上去形式一样,但是意义不一样,记住remember该似然函数定义。对同一个似然函数,如果存在一个参数值,使得它的函数值达到最大的话,那么这个值就是最为“合理”的参数值。
EM算法推导。
面对一个含有隐变量的概率模型,目标是极大化观测数据(不完全数据),即极大化下式(不完全数据Y的对数似然函数)。
极大化的主要困难是上式中含有未观测数据并有包含和(或积分)的对数,EM算法则是通过迭代逐步近似极大化L(θ)的,如果采用梯度下降等方法求导,则隐变量数目上升,无法求解,所以才用迭代法。
事实上,EM算法是通过迭代步近似极大化的。假设在第i次迭代后的估计值。我们希望新估计值能使增加,即,并逐步达到极大值。为此,考虑两者的差:
由此式推得到:
B函数是目标式的一个下界,只要其变大,那么目标式子也变大。
从而推得式子:
分析B函数,得到等价式子:
总结:EM算法的一次迭代,即求Q函数及其最大化,EM算法是通过不断求解下界的极大化逼近求解对数似然函数极大化的算法。下图中相交处是,即表示B函数是一个下界。而之后找使得B函数极大化,Q函数也会极大化,从而导致不完全数据Y的对数似然函数也最大化。
EM算法。
输入:观测数据,隐变量数据,联合分布,条件分布;
输出:模型参数。
选择参数的初值,开始迭代;
E步:记为第次迭代参数的估计值,在第次迭代的E步,计算
这里,是在给定观测数据Y和当前的参数估计下隐变量数据Z的条件概率分布;
求使极大化的,确定第次迭代的参数的估计值
重复第(2)步和第(3)步,直到收敛。
其中的函数是EM算法的核心。称为Q函数。
Q函数:完全数据的对数似然函数关于在给定观测数据Y和当前参数下对未观测数据Z的条件概率分布的期望:
算法说明:
参数的初值可以任意选择。但需注意EM算法对初值是敏感的。常用的办法是选取几个不同的初值进行迭代,然后对得到的各个估计值加以比较,从中选择最好的。
2.E步求。Q函数式中Z是未观测数据,Y是观测数据。注意,的第1个变量表示要极大化的参数,第2个变量表示参数的当前估计值。每次迭代实际在求Q函数及其极大。
M步求的极大化,得到,完成一次迭代。后面将证明每次迭代使似然函数增大或达到局部极值。
给出停止迭代的条件,一般是或是Q函数更新的差值小于某一较小的正数。
EM算法推导在非监督学习中的应用。
比如在k-means中,隐变量是每个样例的最佳类别,先随便制定一个类C给它,计算各自距离(E步),然后让P(x,y)最大(k-means中是最小化平方误差),再将质心重新指派给样例(M步),不断重复,一直到没有更好的。
Reference
Last updated
Was this helpful?