阅读提示:为防止内容获取不全,请勿使用浏览器阅读模式。
法,我觉得统计学角度的EM算法和机器学习的EM算法其实就是共通的,只不过理解角度有些许差异,我会结合机器学习来给大家讲一讲。”
“可能大家都清楚EM算法是一种迭代优化策略,分为两步,一者为期望步(E步),一者为极大步(M步),通过这两步的不断迭代以此得出最优解,所以被称为期望最大化算法(EM),其实在机器学习的强化学习中,类似的迭代算法非常多,诸如蒙特卡罗同步和异步策略,又如Q-learning算法……”
台下的同学们其实是有些懵逼的,因为台上这位大老的思路跳跃得实在是有些快,从EM算法跳到机器学习的一些相似算法剖析了一通,然后又从数学角度浅浅理解了下,最后又跳回统计学这边。
部分算是学霸的勉强还能跟上,剩下的那就全是一脸“我是谁,我在哪,我在干什么”这哲学三问的脸。