科学网

 找回密码
  注册
更正:LDA、AT和ToT的Gibbs采样算法
热度 2 徐硕 2012-6-15 16:40
今天发现原来发布的 LDA 、 AT 和 ToT 的Gibbs采样算法中有几个公式推导有点问题,不过最后的公式是正确的,不会影响大家写程序 现已纠正,并统一进行发布如下: Gibbs for LDA, ToT AT.pdf 对相关人员的理解造成不良影响的,在此一并表示歉意,希望这个新的版本对大家更有帮助。
个人分类: 机器学习|12374 次阅读|3 个评论 热度 2
Gibbs Sampling Algorithm for ToT Model
热度 3 徐硕 2012-6-7 15:36
ToT(Topic-over-Time)模型的Gibbs采样算法推导过程详见: GibbsToT.pdf
个人分类: 机器学习|5307 次阅读|11 个评论 热度 3
Gibbs Sampling Algorithm for AT Model
徐硕 2012-5-9 15:15
AT(Author-Topic)模型的Gibbs采样算法推导过程详见: GibbsAT.pdf
个人分类: 机器学习|3739 次阅读|没有评论
Gibbs Sampling Algorithm for LDA
热度 1 徐硕 2012-5-4 10:53
最近利用Gibbs Sampling算法对许多主题模型(topic model)进行了推导 目前考虑的主题模型包括:LDA (Latent Dirichlet Allocation),AT (Author-Topic),ACT (Author-Conference-Topic),ToT (Topic over Time),TNG (Topic N-Gram),BTM (Bigram Topic Model), LDACOL (LDA Collocation)等 最近会不断的贴在此处,供大 ...
个人分类: 机器学习|12598 次阅读|5 个评论 热度 1
中国科学技术信息研究所信息技术支持中心招聘下列岗位
徐硕 2012-4-5 22:06
职位一: 职位名称: JAVA 高级软件工程师 主要职责: 1. 科技信息资源内容监测与分析服务平台开发和维护; 2. 科技信息资源内容辅助工具开发和维护; 3. 科技信息资源的导入 / 导出以及不同格式 ...
个人分类: 机器学习|3897 次阅读|没有评论
利用矩估计Beta分布的参数
徐硕 2012-2-17 17:33
利用矩估计Beta分布的参数
Beta分布是定义在连续变量 上的一种分布,它的概率密度函数为 其中 a 0, b 0。 下图为Beta分布在参数 a 和 b 取不同值时的概率密度曲线: Beta分布是二项式分布的共轭先验(conjugate prior),因此经常被用于二项式分布的先验分布 由于Beta分布的概率密度曲线形状比较多样,而Gaussian ...
个人分类: 机器学习|15039 次阅读|没有评论
四篇应该仔细读的关于文本分析的tutorial类文章
热度 1 徐硕 2012-2-9 15:24
对文本分析进行详细深入介绍的肯定不只这四篇,这是本人目前读过的,其他比较好的tutorial类文章欢迎大家推荐补充。 第一篇:详细介绍了离散数据的参数估计方法,而不是像大多数教材中使用的Gaussian分布作为例子进行介绍。个人觉得最值得一读的地方是它使用Gibbs采样对LDA进行推断,其中相关公式的推导非常详细,是许 ...
个人分类: 机器学习|12201 次阅读|2 个评论 热度 1
HMM-LDA模型简介
热度 5 徐硕 2012-1-29 08:31
Griffiths et. al.~cite{GSBT05}认为,一个词出现在句子中是有原因的。作者将原因分为两种:一种是它起到的是句法(syntactic)功能,使整个句子符合一定的语言规范,也就是常说的虚词(function words);另一种它起到语义(semantic)功能,传递句子的真实含义,也就是常说的实词(content words)。 句法约束通常 ...
个人分类: 机器学习|12428 次阅读|8 个评论 热度 5

本页有 2 篇博文因作者的隐私设置或未通过审核而隐藏

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-22 08:45

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部