wzlyulbs的个人博客分享 http://blog.sciencenet.cn/u/wzlyulbs

博文

舆情之正负面

已有 2651 次阅读 2017-12-13 20:11 |个人分类:科研笔记|系统分类:科研笔记


应该说,stanfordRNTN模型的语言性是比较强的。

【链接:https://nlp.stanford.edu/~socherr/EMNLP2013_RNTN.pdf


与之相比,很多模型仅在输入embedding处无法跳过的地方被迫地用了语言的东西:词。这么做的一个很重要的理由是:端到端模型最真实将问题呈现给模型,语言性东西模型会自行领悟。而分步骤地处理会带来错误放大。


我能找到最新的正负面的文章【https://cs224d.stanford.edu/reports/HongJames.pdf】,使用的是和RNTN类似的方法,文中也对比了2013-2015年的方法,最优的端到端的模型CNN-multi-channel和该文的方法Constituency Tree-LSTM 几乎没有差异。


因此,可以说,在现阶段,在舆情正负面领域,端到端模型和传统的分步骤的非端到端的模型没有优势可言。


上述提到的正负面都是对整句话或更长的段落的判断。而对于一个句子有多个的实体情况,上述模型就无能为力了。


如何?试试DAG-Structured lstm




http://wap.sciencenet.cn/blog-3141079-1089534.html

上一篇:关于SEQ2SEQ序列模型一些想法
下一篇:Generating Sentences From a Continuous Spaces 翻译

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-4-19 20:30

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部