徐明昆
人工智能大模型的功能边界
2025-9-2 20:27
阅读:301

40年前,我曾写过一本书《从计算机下棋谈起》【1】,现在百度还能搜到。

书中肯定了人工智能的物理可靠性,速度,记忆力,通信,继承等方面的优势,

但书末也谈到人工智能只是功能模拟,和人脑智力的机理根本不同;

预言人工智能的一些局限,比如没有生命属性,社会属性,

缺乏模糊逻辑,直觉和创造力等。                                                                                                                                                                                                                                                                                                                                                                                                                                                                                       当时我在人工智能推理上也做了一些实验,用LISP语言编写了

一个符号微分系统,能对任何初等函数及其复合函数微分,

现在看这个功能微不足道,40年前还是挺新颖的。

人们都以为系统和人一样靠推理实现的微分,

实际我是做的形式变换或者说模式匹配,顶多算是形式推理。

简而言之,就是依据已知信息和规则做变换,没有人类的语言理解和推理实质。

                                                                                                                    今天的人工智能推理在我看来没有根本进展,顶多是最优形式推理,或者叫最优模式匹配,比我那时多了最优---或者说概率意义上的最优---的定语。

虽然目前大语言模型功能已经复杂得多,已知数据多得多,但本质上还是依赖

数据量,算力等量的提高。

理解语言语义,创造性的推理,提出新概念(体系),逻辑严密性,

完备性正确性证明这些都做不到。

                                                                                                                        斯坦福大学去年的一篇论文也谈到了大语言模型的基本局限【2】,

这篇论文的工作远比我的的详实,但正反两方面的结论与我的看法一致。

                                                                                                                                                                            本领域专业工作,请编辑留存。

                                                                                                                                                                                                                                                                                                                                                                                                                                                                                【 1】从计算机下棋谈起:人工智能浅谈 - 百度学术

【2】斯坦福大学突破性发现:AI大模型其实并没有真正"理解"语言 - 科技行者

2024年3月的《Nature Machine Intelligence》期刊第11卷第3期,研究论文的DOI为10.1038/s42256-024-00823-9

斯坦福大学研究团队通过精密实验发现,当前最先进的AI大模型并未真正"理解"语言,而是在进行复杂的模式匹配。当问题表述方式改变时,模型错误率激增至60%以上。这项发表于《Nature Machine Intelligence》的研究揭示了AI智能的本质局限,为合理应用AI技术提供了重要指导,强调在关键决策中仍需人类专家监督。

AI模型的核心工作原理可以比作一个超级复杂的联想记忆系统。当模型接收到输入时,它会在庞大的参数空间中寻找与训练数据中相似模式最匹配的路径。这个过程不涉及真正的理解或推理,而更像是在一个包含数万亿个例子的图书馆中快速查找最相关的内容。

研究人员通过"探针实验"深入模型内部,观察不同层次的神经网络在处理语言时如何激活。他们发现,模型在处理语言时确实能够捕捉到一些语法和语义信息,但这些信息的组织方式与人类大脑中的语言处理机制根本不同。模型更多地依赖表面的统计关联,而不是深层的概念理解。

特别值得注意的是,研究团队发现了"捷径学习"现象。模型往往会学会识别问题中的特定关键词或短语模式,然后基于这些表面特征给出答案,而不是真正理解问题的含义。这就像一个学生发现所有包含"最大"这个词的数学题答案都是选项C,于是在考试时只要看到"最大"就选C,而不去理解题目的实际内容。

更深层的分析揭示了训练数据对模型行为的决定性影响。研究人员通过统计分析发现,模型的输出与训练数据中特定模式的出现频率有强烈的相关性。这意味着模型本质上是在进行一种高度复杂的统计插值,而不是真正的理解和推理。

这种发现对我们理解AI的能力边界具有重要意义。它表明,即使模型在某些任务上表现得像人类一样出色,它们的工作机制与人类智能有着根本性的不同。人类的语言理解基于对世界的模型和抽象推理能力,而AI模型更多地依赖对训练数据中模式的记忆和重组。

转载本文请联系原作者获取授权,同时请注明本文来自徐明昆科学网博客。

链接地址:https://wap.sciencenet.cn/blog-537101-1500171.html?mobile=1

收藏

分享到:

下一篇
当前推荐数:1
推荐人:
推荐到博客首页
网友评论0 条评论
确定删除指定的回复吗?
确定删除本博文吗?