Em算法及其推广

Table of Contents

  1. EM算法的引入
    1. EM算法
    2. EM算法的导出
    3. EM算法在非监督学习中的作用
    4. EM算法的收敛性
  2. EM算法在高斯混合模型中的应用
    1. 高斯混合模型
    2. 高斯混合模型参数估计的EM算法
  3. EM算法的推广
    1. F函数的极大-极大算法
    2. GEM算法

EM算法及其推广用于含有隐参数的概率模型参数的极大似然估计,或极大后验概率估计。 迭代由两步组成: E步:求期望 M步:求极大

EM算法的引入

最大似然估计需满足一个重要假设:采样是独立同分布的 最大后验概率估计:与最大似然估计类似,但最大的不同是最大后验概率估计融入了要估计量的先验分布在其中。故最大后验概率估计可以看做规则化的最大似然估计。

EM算法

定义Q函数: 完全数据的对数似然函数 2017-2-27-EM算法及其推广_4fbb201e0fbbc0b351773a31475404c2fbf994cc.png关于在给定观测数据Y和当前参数 2017-2-27-EM算法及其推广_1f58ffbe3fae65b88a2efe5f39fc0c6e514cd4de.png 下对未观测数据Z的条件概率的期望称为Q函数, 即 2017-2-27-EM算法及其推广_8ada9c677029cf51d67d1d1645a7f00f9688010d.png

EM算法与选取的初值有关,选择不同的初值得到不同的参数估计值。 EM算法 输入:观测变量数据值Y,隐变量数据Z,联合分布 2017-2-27-EM算法及其推广_b255fb7a6e65ec80a940f3af4dbef14c0e0900d3.png, 条件分布 2017-2-27-EM算法及其推广_0416a8f3db760df5ee9ceb883b482a18e38e0b96.png 。 输出:模型参数 2017-2-27-EM算法及其推广_83b2145fa35bdfdb4340a99f2df5183adcc79e34.png (1)选择参数 2017-2-27-EM算法及其推广_91e72f7b0cb1f8fc8ebeb0219014028b98e0e7a4.png , 开始迭代 (2)E步:记 2017-2-27-EM算法及其推广_3ab3f18ce9983c49e139f8362c89a74e9b182f45.png 为第i次迭代参数 2017-2-27-EM算法及其推广_83b2145fa35bdfdb4340a99f2df5183adcc79e34.png 的估计值,在第i+1次迭代的E步,计算 2017-2-27-EM算法及其推广_4f5964d4b0d544507a5a67a6606b328f8b39f5da.png 2017-2-27-EM算法及其推广_80817cbf2b892b871982263ab3666e153906d499.png (3)M步:求使 2017-2-27-EM算法及其推广_5746d75eac3f4b928a60a099241253f5db110bc4.png 极大化的 2017-2-27-EM算法及其推广_83b2145fa35bdfdb4340a99f2df5183adcc79e34.png,确定第i+1次的估计值2017-2-27-EM算法及其推广_9c365d1cc2cfd27337bb8fa6b5672ec293cd3815.png 2017-2-27-EM算法及其推广_e1fa00686472df14f6b6d6d0a9bf17871d539932.png (4)重复第(2)步和第(3)步,直到收敛。 第二步中的Q函数是EM算法的核心。

EM算法的导出

通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法。看出EM算法的作用。 EM算法通过不断求解下界的极大化逼近求解对数似然函数极大化,不能保证找到全局最优值。

EM算法在非监督学习中的作用

EM算法可以用于生成模型的非监督学习。生成模型由联合概率分布P(X,Y)表示,可以认为非监督学习训练数据是联合分布产生的数据,X是观测数据,Y是未观测数据。

EM算法的收敛性

定理:设 2017-2-27-EM算法及其推广_5fcbd0cedee248b3de9a16abf8a61b36cb79f51f.png 为观测数据的似然函数, 2017-2-27-EM算法及其推广_baec25989778087fca88d7c3f657e4e65943849f.png 为EM算法得到的参数估计序列, 2017-2-27-EM算法及其推广_3166b4b99a219091370261e3d98867950f65d688.png 为对应的似然函数序列,则 2017-2-27-EM算法及其推广_a640b7909c36820f682d176fb34261b67cb6f336.png 是单调递增的。

定理:…. 定理只能保证参数估计序列收敛到对数似然函数序列的稳定点,不能保证收敛到极大值点。 常用方法是选取几个不同的初值进行迭代,然后从得到的各个估计值加以比较,从中选择最好的。

EM算法在高斯混合模型中的应用

EM算法的一个重要应用:高斯混合模型的参数估计

高斯混合模型

高斯混合模型: 2017-2-27-EM算法及其推广_aa651267b16ad43f99f6850d55feeebd93fb49ae.png 其中,2017-2-27-EM算法及其推广_cd15ac83dcf6b62575ebb5f1df064eb0147ec9af.png 是系数, 2017-2-27-EM算法及其推广_803f205a9172efcbcf25bbb405c0404ceb46bc27.png 是高斯分布密度

高斯混合模型参数估计的EM算法

1.明确隐变量,写出完全数据的对数似然函数 隐变量:反映观测数据 2017-2-27-EM算法及其推广_8967da7d6868648145a80d2609472dd26a8b55e5.png 来自第k个分模型的未知数据,记为 2017-2-27-EM算法及其推广_43316877b648d039b610f5da91db9435b7cec512.png 观测数据: 2017-2-27-EM算法及其推广_8967da7d6868648145a80d2609472dd26a8b55e5.png 未观测数据 2017-2-27-EM算法及其推广_43316877b648d039b610f5da91db9435b7cec512.png 完全数据的似然函数: 2017-2-27-EM算法及其推广_5f8bc90906eff01a3d9665a2315f0dc901ef62d7.png

2.EM算法的E步,确定Q函数 2017-2-27-EM算法及其推广_496b87568cdb5b0e02d0b502081601b6e6b33a3f.png
计算 2017-2-27-EM算法及其推广_37173b4bab820b2e19b9075654894595dfe1e983.png 当前模型的第j个观测数据来自第k个分模型的概率, 记为 2017-2-27-EM算法及其推广_aac74fc581ede213a64a37f5d0b049514164b408.png

3.确定EM算法的M步。 用 2017-2-27-EM算法及其推广_a29a9b6e7d6d5da5d2782454f167e7b8ef135c22.png , 2017-2-27-EM算法及其推广_5d3ac290b9fcc877a77a0e76f8e5200da9736a89.png2017-2-27-EM算法及其推广_51402c155e2f0cbc62190e5a118d78a4bbdbd089.png 表示 2017-2-27-EM算法及其推广_d884a16a96f27a624169fc2e8fc9f980e5ffdd22.png 的各参数,通过偏导数为0求的值。 重复上述过程,直至对数似然函数不再有明显变化。

EM算法的推广

EM算法还可以解释为F函数的极大-极大算法,基于这个解释有若个变形和推广 GEM

F函数的极大-极大算法

定义: 隐变量数据Z的概率分布为 2017-2-27-EM算法及其推广_195c13c9cd26d952b1b7b713b865e6324544d20e.png ,定义分布 2017-2-27-EM算法及其推广_0e1cd618a00d27e4cd0102e9845773701317100a.png 与参数 2017-2-27-EM算法及其推广_83b2145fa35bdfdb4340a99f2df5183adcc79e34.png 的函数 2017-2-27-EM算法及其推广_d7abed1d18248d49f6c3b95c0accc7d9c63ec647.png 如下: 2017-2-27-EM算法及其推广_43f0d49a7e3421230d19334ddca8a6493815c539.png 称为F函数, 式中 2017-2-27-EM算法及其推广_3a81c4c9d32c8a5f02f657ba2d15dcf1871b2451.png 是分布 2017-2-27-EM算法及其推广_195c13c9cd26d952b1b7b713b865e6324544d20e.png 的熵。

EM算法的一次迭代可由F函数的极大-极大算法实现 (1) 对固定的 2017-2-27-EM算法及其推广_3ab3f18ce9983c49e139f8362c89a74e9b182f45.png ,求 2017-2-27-EM算法及其推广_91abf3cda096def3ab2b270bbc577b254f6abd6f.png ,使得 2017-2-27-EM算法及其推广_055d11f46041ba1af9f8faf543bccad0eb79ad91.png 最大化。 (2) 对固定的 2017-2-27-EM算法及其推广_91abf3cda096def3ab2b270bbc577b254f6abd6f.png ,求 2017-2-27-EM算法及其推广_9c365d1cc2cfd27337bb8fa6b5672ec293cd3815.png ,使得 2017-2-27-EM算法及其推广_476c59c63dc6ef07073041951bbf997bf1c9c171.png 最大化。

GEM算法

GEM算法1: EM算法的F函数方法表达 GEM算法2: 并不直接求极大,而是找到一个 2017-2-27-EM算法及其推广_83b2145fa35bdfdb4340a99f2df5183adcc79e34.png 使函数值变大。 GEM算法3: 参数 2017-2-27-EM算法及其推广_83b2145fa35bdfdb4340a99f2df5183adcc79e34.png 的维数d>=2时,将M步分解为d次条件极大化。

发布于: 2017年 02月 27日