EM算法----就在身边
EM算法---身边常用的算法 贝叶斯分类 高斯混合聚类 半监督学习--生成式方法 EM算法很常用,下面就简单总结下,使用到EM算法的一些算法。 贝叶斯分类 现实中,会遇到“不完整”的训练样本,如某些属性变量值未知,即存在“未观测到”变量情形下,可以使用EM算法。 基本思想是:若参数已知,则可根据训练数据推断出最优隐变量的值(E步),反之,若隐变量的值已知,则可方便的对参数做极大似然估计(M步)。 简单来说,EM算法使用两个步骤交替计算: 第一步:E步。利用当前估计的参数值(参数初始值人为设定)来计算对数似然的期望值; 第二步:M步,即最大化步。寻找能使E步产生的似然期望最大化的参数值; 第三步:交替。新得到的参数用于E步,…直至收敛到局部最优解。 高斯混合聚类 假定样本由k个高斯分布混合生成,高斯混合聚类采用概率模型来表达聚类模型。高斯混合聚类采用EM算法进行迭代优化求解。 令随机变量zj∈{1, 2, 3, …, k}表示生成样本xj的高斯混合成分,其取值未知(相当于是隐变量)。 公式推导可见周志华的《机器学习》,第208页-209页。 高斯混合聚类的EM算法思想: E步:在每步迭代中,先根据当前参数来计算每个样本属于每个高斯成分的zj的后验概率; M步:再根据极大似然法估计的公式,更新模型参数。 半监督学习–生成式方法 在半监督学习中