鲁晨光
公布求解最大互信息和最大似然度的信道匹配算法—用以取代EM算法
2017-6-12 12:25
阅读:5930
标签:机器学习, 统计推理, 语义信息, 互信息, 似然度

搜索最大似然度, 可见有33万篇文章:

http://www.sciencedirect.com/science?_ob=ArticleListURL&_method=list&_ArticleListID=-1217372240&_sort=r&_st=13&view=c&md5=32025f8bcf94febd17e33e7009f377cd&searchtype=a

搜索EM算法有8万多篇文章:

http://www.sciencedirect.com/science?_ob=ArticleListURL&_method=list&_ArticleListID=-1217372349&_sort=r&_st=13&view=c&md5=1c0dbe77532804b292213415558828cb&searchtype=a

最大互信息难以求解的, 所以Shannon用失真准则, 而不是互信息准则。

最大似然度——指香农信道没有确定时的最大平均对数似然度——也是难求的。

这两个难题应该说是信息论和统计理论中最顽固的堡垒。

两者只能用迭代方法求解。通常用牛顿法, 梯度法和EM算法。其中EM算法最具神秘性。

本文不是要在么庞大数子上增加一个1, 而是要重新评估以前的做法, 特别是EM算法!

本文提出新的算法是信道匹配算法——多数情况下3-5次就收敛。文中和EM算法做了比较,大多数情况下迭代次数降到1/3。还证明了前人的EM算法收敛证明完全错了。

新的算法是否简洁, 高效,易于理解,详见最新文章:

http://survivor99.com/lcg/CM.html

本来是想先投稿, 争取发表的, 但是一想到那么多人在最大互信息和最大似然度上耗费那么多宝贵时间,想到审稿之漫长, 辩解之麻烦, 我还是先公布算法吧!

语义信息方法历来遭遇主流歧视,因为要权威理解非常困难。这篇文章也是要向主流显示: 语义信息论是怎样powerful, 它可以解决经典方法难以解决的难题!

我有没有做到, 请看完理解再说!

欢迎批评!




转载本文请联系原作者获取授权,同时请注明本文来自鲁晨光科学网博客。

链接地址:https://wap.sciencenet.cn/blog-2056-1060321.html?mobile=1

收藏

分享到:

当前推荐数:2
推荐人:
推荐到博客首页
网友评论7 条评论
确定删除指定的回复吗?
确定删除本博文吗?