随园厚学分享 http://blog.sciencenet.cn/u/gothere 计算语言学博士 希望在这里留下学术的足迹

博文

宗成庆老师重磅报告——计算语言学没有退路

已有 882 次阅读 2025-8-29 20:18 |个人分类:Computational Linguistics|系统分类:观点评述

按:这也许是中国计算语言学大会近十几年来最精彩的一场报告,近六百人的会场一开始还有点空,讲到后半程几乎都坐满了,大家表情严肃,提问不断!这个报告,既有历史回顾,又揭示了学科存在的本质问题,更难能可贵的是,自己带队耗费几百万的积累资金,探索计算神经语言学的新路径!让人叹服!一直希望国内有这样的计算神经语言学研究,终于有了诸多突破和进展!开心!

6716563c7d64e56b949e7882c46d2fa0_720.jpg

2025年8月14号上午,著名计算语言学家宗成庆教授在CCL2025的特邀报告《计算语言学的出路与退路》,非常精彩!该报告基于他在ACL2025的主席报告(PS:世界级顶尖学者专属)《The Path Forward and Alternatives of Computational Linguistics》,发出了令人深省的一句话“计算语言学没有退路!

image.png

image.png

首先,宗老师回顾计算语言学的70多年发展史,总结出三个残酷现状:

(1)NLP、语音、图像和视频处理的门槛大幅度降低,多模态信息融合成为必然趋势。

(2)学术界与企业界的合作愈加紧密,在数据和算力方面学术界对企业界的依赖性更强。

(3)相关领域的学术会议同质化现象愈加严重,大量雷同、甚至重复性工作出现在同领域的相关会议上。就CL/NLP领域的会议而言,ACL、EMNLP、NAACL、EACL、AACL、COLING,甚至扩展到AAAI、IJCAI、ICML、ICLR等,差异性和特色越来越小,甚至消失不见。

由此,报告提出了学界需要思考和回答的三大问题:

(1)大语言模型是解决CL/NLP问题的终极方法吗?

(2)大语言模型是学界研究的唯一出路吗?CL/NLP学科方向发展的未来出路是什么?

(3)学术界除了为大厂输送人才,研究的初衷和使命是什么?

宗老师以自己课题组几年来在脑神经数据集构建、脑神经与计算融合的计算神经语言学方面做的六项重要研究工作,探索出了一条不以复现模型、调参为主的、新的大语言模型研究之路。

首先,建立了四种数据集:

(1)汉语词汇级神经影像数据

(2)连续故事的神经影像数据

(3)汉语语义评分数据集

(4)多模态认知数据集

a0546bc78f4cd9ae7f6aa08e7dd73c0d.jpeg

e660aa8dbc736fdd032b120ec4b75574.jpeg

4a1f150450f67563bcb87807cbbaf691.jpeg

9e008f5eede8a4ee640a5ea8ad50ff43.jpeg

其次,用计算建模实验而非简单的行为实验来揭示大脑的神经编码机制、语义网络分区以及句子级神经解码,这三大关键问题。

10ea0ca91c0681079380295e25504d51.jpeg

8d5fdecf2c3aaaffbf898b2174e4a12b.jpeg

9ebaeb2cdcc5cf144cc01e93aa6557e8.jpeg

结论与对策

9c3dec1ef0031c2c5e3cf871d83474a6.jpeg

4f527ea4f1382fd12c4c4eeabcf8b4ba.jpeg

宗老师提出了两点对策:

(1)应以多样化方式鼓励非大模型研究,让更多不同的学术观点有机会在国际一流学术舞台上展现。

(2)具有强大的泛化能力,能够自学习和自我进化,低功耗的绿色CL/NLP方法才是人类追求的终极目标。

而最后的结束语尤为发人深省!

计算语言学没有退路,也无需有退路! 这句话是在ACL大会上没有讲,而在CCL专门增加的重要论述。不要退路,不要随波逐流,要勇往直前,走出自己的一条路!



https://wap.sciencenet.cn/blog-39714-1499633.html

上一篇:Nature灵魂拷问:技术服务于谁?
收藏 IP: 222.95.34.*| 热度|

2 王涛 郑永军

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-9-1 05:05

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部