||
按:这也许是中国计算语言学大会近十几年来最精彩的一场报告,近六百人的会场一开始还有点空,讲到后半程几乎都坐满了,大家表情严肃,提问不断!这个报告,既有历史回顾,又揭示了学科存在的本质问题,更难能可贵的是,自己带队耗费几百万的积累资金,探索计算神经语言学的新路径!让人叹服!一直希望国内有这样的计算神经语言学研究,终于有了诸多突破和进展!开心!
2025年8月14号上午,著名计算语言学家宗成庆教授在CCL2025的特邀报告《计算语言学的出路与退路》,非常精彩!该报告基于他在ACL2025的主席报告(PS:世界级顶尖学者专属)《The Path Forward and Alternatives of Computational Linguistics》,发出了令人深省的一句话“计算语言学没有退路!”
首先,宗老师回顾计算语言学的70多年发展史,总结出三个残酷现状:
(1)NLP、语音、图像和视频处理的门槛大幅度降低,多模态信息融合成为必然趋势。
(2)学术界与企业界的合作愈加紧密,在数据和算力方面学术界对企业界的依赖性更强。
(3)相关领域的学术会议同质化现象愈加严重,大量雷同、甚至重复性工作出现在同领域的相关会议上。就CL/NLP领域的会议而言,ACL、EMNLP、NAACL、EACL、AACL、COLING,甚至扩展到AAAI、IJCAI、ICML、ICLR等,差异性和特色越来越小,甚至消失不见。
由此,报告提出了学界需要思考和回答的三大问题:
(1)大语言模型是解决CL/NLP问题的终极方法吗?
(2)大语言模型是学界研究的唯一出路吗?CL/NLP学科方向发展的未来出路是什么?
(3)学术界除了为大厂输送人才,研究的初衷和使命是什么?
宗老师以自己课题组几年来在脑神经数据集构建、脑神经与计算融合的计算神经语言学方面做的六项重要研究工作,探索出了一条不以复现模型、调参为主的、新的大语言模型研究之路。
首先,建立了四种数据集:
(1)汉语词汇级神经影像数据
(2)连续故事的神经影像数据
(3)汉语语义评分数据集
(4)多模态认知数据集
其次,用计算建模实验而非简单的行为实验来揭示大脑的神经编码机制、语义网络分区以及句子级神经解码,这三大关键问题。
结论与对策
宗老师提出了两点对策:
(1)应以多样化方式鼓励非大模型研究,让更多不同的学术观点有机会在国际一流学术舞台上展现。
(2)具有强大的泛化能力,能够自学习和自我进化,低功耗的绿色CL/NLP方法才是人类追求的终极目标。
而最后的结束语尤为发人深省!
计算语言学没有退路,也无需有退路! 这句话是在ACL大会上没有讲,而在CCL专门增加的重要论述。不要退路,不要随波逐流,要勇往直前,走出自己的一条路!
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-9-1 05:05
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社