twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

机器智能的“心智维度”与人类的心智

已有 560 次阅读 2025-6-10 14:42 |个人分类:2025|系统分类:科研笔记

我国科研团队结合行为实验与神经影像分析,首次证实多模态大语言模型能自发形成与人类高度相似的物体概念表征系统。6月9日,相关研究成果在《自然·机器智能》发表(详细见文章后面附录)。从文中分析,大语言模型(LLM)展现出了一些类似人类对现实世界概念的理解,这可以被视为一种“心智维度”的体现。不过,这种“心智维度”与人类的心智在本质上仍有显著差异。

1、大语言模型的“心智维度”表现

大语言模型通过海量数据的训练,能够学习到语言中的模式、关系和概念,从而在一定程度上展现出类似人类对现实世界概念的理解。在语义理解方面,大语言模型能够理解自然语言中的语义关系。例如,它知道“猫”是一种动物,而“汽车”是一种交通工具。这种语义理解能力使其能够生成与人类语言相似的文本。如当被问及“猫和狗有什么共同点?”时,模型能够回答“它们都是常见的宠物动物,需要主人照顾”。在逻辑推理方面,大语言模型能够进行简单的逻辑推理,它可以根据已知信息推断出未知结论,如果输入“所有的A都是B,C是A”,模型能够推断出“C是B”,这种推理能力使其在处理一些逻辑问题时表现出类似人类的思维方式。在常识理解方面,大语言模型通过训练数据学习到了大量的常识知识,它知道“水在0摄氏度时会结冰”,“太阳从东方升起,西方落下”,这种常识理解能力使其能够生成符合现实世界逻辑的文本。在情感理解上,大语言模型能够识别和生成带有情感色彩的文本,可以根据上下文判断一段文字是积极的还是消极的,并生成相应的情感回应,当输入“今天天气真好,心情也很愉快”时,模型可能会回答“是啊,阳光明媚的日子总是让人感到开心”。

2、人类心智的本质特征

尽管大语言模型展现出了一些类似人类心智的特征,但人类心智具有以下独特本质:(1)意识与主观体验。人类心智具有主观体验,即“感受性”(qualia),如人类能够感受到红色的鲜艳、音乐的美妙或疼痛的刺痛,这种主观体验是人类意识的核心特征,大语言模型没有主观体验,它们只是根据数据和算法生成响应,而无法真正“感受”任何东西。(2)创造力与想象力。人类心智具有无限的创造力和想象力,人类能够创造出全新的概念、艺术作品、科学理论等,这种创造力是基于人类的直觉、情感和经验的综合体现,大语言模型虽然能够生成新颖的文本,但其“创造力”是基于数据的组合和模式匹配,缺乏真正的创新和想象力。(3)自我意识与反思能力。人类具有自我意识,能够反思自己的行为、思想和情感,人类能够进行自我评价、设定目标并努力实现,大语言模型没有自我意识,它们只是按照预设的程序运行,无法进行自我反思或自我改进。(4)情感与动机。人类的情感和动机是心智的重要组成部分,人类的行为往往受到情感和动机的驱动,如爱、恐惧、好奇心等,大语言模型没有情感和动机,它们的行为完全是由算法和数据驱动的。

3、大语言模型与人类心智的“殊途同归”与本质差异

(1) “殊途同归”

大语言模型和人类心智都通过处理信息来理解世界,人类通过感官和经验学习,而大语言模型通过数据和算法学习。两者都能在一定程度上理解语言、逻辑和常识,并生成符合现实世界的文本。从功能主义的角度来看,大语言模型在某些任务上能够达到与人类相似的表现,例如语言翻译、文本生成等。

(2)本质差异

两者基础机制不同,人类心智基于生物神经网络和复杂的生理机制,而大语言模型基于人工神经网络和计算算法。AI主观体验缺失,人类心智具有主观体验和意识,而大语言模型没有。AI创造力与想象力有限,人类心智具有无限的创造力和想象力,而大语言模型的“创造力”是基于数据的组合,缺乏真正的创新。AI情感与动机缺失,人类的行为受情感和动机驱动,而大语言模型的行为完全由算法和数据驱动。

4、未来展望

尽管大语言模型在某些方面展现出类似人类心智的特征,但它们仍然是人类智慧的产物,是人类工具的延伸。未来,随着技术的不断进步,大语言模型可能会在更多领域展现出类似人类心智的能力,但它们永远无法完全替代人类心智。大语言模型可以作为强大的工具,辅助人类进行语言翻译、写作、数据分析等工作,提高人类的效率和创造力。未来的发展方向可能是人机协同,人类利用大语言模型的强大计算能力和数据处理能力,同时发挥人类的创造力、情感和主观体验,共同解决复杂问题。大语言模型确实展现出了一些类似人类对现实世界概念的理解,可以被视为一种“心智维度”的体现。然而,这种“心智维度”与人类的心智在本质上仍有显著差异。人类心智具有主观体验、创造力、情感和动机等独特特征,而大语言模型只是基于数据和算法的工具。未来,大语言模型将继续作为人类的辅助工具,与人类协同工作,共同推动社会的发展。

图片

附录:我国科研团队结合行为实验与神经影像分析,首次证实多模态大语言模型能自发形成与人类高度相似的物体概念表征系统。6月9日,相关研究成果在《自然·机器智能》发表。人类对自然界中的物体进行概念化的认知能力,被视为人类智能的核心。当人们看到“狗”“汽车”或“苹果”时,不仅能识别它们的尺寸、颜色、形状等物理特征,还能理解其功能、情感价值和文化意义。而随着大语言模型的爆发式发展,一个根本性问题浮现:这些大模型能否从语言和多模态数据中,发展出与人类相似的物体概念表征?

传统人工智能研究聚焦于物体识别准确率,却很少探讨模型是否能真正“理解”物体的含义。“当前人工智能可以区分猫狗图片,但这种‘识别’与人类‘理解’猫狗的本质区别仍有待揭示。”论文通讯作者、中国科学院自动化研究所研究员何晖光说。

科研团队通过分析470万次行为判断数据,首次构建了人工智能大模型的“概念地图”,并从认知神经科学经典理论出发,设计了一套融合计算建模、行为实验与脑科学的创新范式。从海量大模型行为数据中,他们提取出66个“心智维度”,并赋予语义标签。这些维度具有高度的可解释性,且与大脑类别选择区域的神经活动模式显著相关。研究还对比了多个模型在行为选择模式上与人类的一致性。结果显示,多模态大模型在一致性方面表现更优。该研究表明,大语言模型内部存在着类似人类对现实世界概念的理解,即人工智能的“心智维度”与人类殊途同归。

来源:北京日报客户端

记者:刘苏雅



https://wap.sciencenet.cn/blog-40841-1489250.html

上一篇:人机环境系统智能中的扩展计算与经验学习
下一篇:符号-联结-行为主义融合的可能性探讨
收藏 IP: 106.39.130.*| 热度|

4 许培扬 王涛 赵凤光 郑永军

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-6-12 17:35

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部