评论详情页
全部回复1 条回复
杨正瓴
赞
+1

《中国信息科学(信息哲学和语义信息)研究的不幸》
http://blog.sciencenet.cn/blog-2056-957130.html
【[2]袁贤讯 2016-2-19 07:19
鲁老师:博文很有启发。我学土木的,但一直对数据-信息-知识-决策这条链感兴趣。一个问题:在谈论信息时,你们不关心模型的影响吗?香农信息量是不关心 模型的,或者可以叫非参数度量。但最大似然,熵、贝叶斯等都是参数化模型隐含在背后的。抛开模型谈信息增减,合适吗?比如概率与模糊之间,信息或不确定性的传递方式完全不同,对应的信息量亦是不可比的吧?好比一个讲寸,一个讲厘米,标度不一样么。所谓语义,是否就是数学上的模型?外行之语,请开示。
另:鲁老师对自己的严厉反思,真学者!】
其实是个十分简单的问题。我们正在做。
一个已经发表的论文:
Analytical Fitting Functions of Finite Sample Discrete Entropies of White Gaussian Noise
您要是用兴趣,我把该文发给您。
我们正做的一个研究,计划今年5月初投出。
————————————————————————————————
热烈欢迎您光临指导!
http://blog.sciencenet.cn/blog-2056-957130.html
【[2]袁贤讯 2016-2-19 07:19
鲁老师:博文很有启发。我学土木的,但一直对数据-信息-知识-决策这条链感兴趣。一个问题:在谈论信息时,你们不关心模型的影响吗?香农信息量是不关心 模型的,或者可以叫非参数度量。但最大似然,熵、贝叶斯等都是参数化模型隐含在背后的。抛开模型谈信息增减,合适吗?比如概率与模糊之间,信息或不确定性的传递方式完全不同,对应的信息量亦是不可比的吧?好比一个讲寸,一个讲厘米,标度不一样么。所谓语义,是否就是数学上的模型?外行之语,请开示。
另:鲁老师对自己的严厉反思,真学者!】
其实是个十分简单的问题。我们正在做。
一个已经发表的论文:
Analytical Fitting Functions of Finite Sample Discrete Entropies of White Gaussian Noise
您要是用兴趣,我把该文发给您。
我们正做的一个研究,计划今年5月初投出。
————————————————————————————————
热烈欢迎您光临指导!

02-20 21:24