||
LLM大模型将科研者卷入了同一个赛道?
大模型,以LLM为代表,正如当年的机器学习(ML)一样,正席卷着信息类科研者的探索空间和赛道。
这也许因于计算机对信息处理方式和工具的改变:传统的统计方法,正在借助机器学习,尤其深度神经网络(deep learning)对于海量信息的吞噬和压缩力量,似乎transformer并统一了一切。
这种data-driven结合工程工具的方式,试图通过对已有的数据,利用海量深层多连接的并行网络,对知识进行抽取--抽象、压缩凝炼映射到一个低维度的狭小空间(知识蒸馏)--也可以说是对物理世界和知识表征的世界(如互联网上文本、语言、图片、视频等)压缩到虚拟数字可操作空间。然后,通过复杂网络所获取的所谓Scaling Law,利用抽取或者蒸馏到的海量压缩的机器知识参数,对使用输入请求进行泛化或者说生成,从而得到我们想获得的机器脑力。
当然,进一步的发展,LLM-based Agentic systems 还包括记忆、搜索、计划、思考、优化等更加复杂的功能扩展,从而得到更加复杂的,可以替代人的脑力,或者说是计算机脑力、虚拟数字脑力,甚至数字人。计算机脑力或者机器脑力的一个好处是,一旦制造成功,可以极低成本复制,从而创造海量数字脑力工作者。
正是这种通过计算机对信息的加工、压缩、使用(生成generative)的新方式,从某种意义上,暂时统一了对信息处理和探索的方式,于是图像、文本、语言、翻译、动画、作文、甚至数学、科学、动物语言理解、人形机器人、无人驾驶、自动生产、大脑模拟、社会模拟、地球模拟,大有横扫一切、一统天下的架势。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-11 02:18
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社