前言
这个笔记是北大那位老师课程的学习笔记,讲的概念浅显易懂,非常有利于我们掌握基本的概念,从而掌握相关的技术
basic concepts
EM 算法可以分为两步,一步是E求均值,另外一步是M,极大化。
解决最优化问题的常规办法之一是:数值优化办法中的迭代方法。
min f(x)
f’(x)=0;
x*=x*+f(x*);
max log(p(x|theta))
将一个复杂的优化问题,转换成一个对更简单的问题优化的过程。
最后
以上就是稳重小天鹅最近收集整理的关于机器学习导论(张志华):EM收敛性原理前言basic concepts的全部内容,更多相关机器学习导论(张志华):EM收敛性原理前言basic内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复