张军平
人类是硅基生命的过渡体? 精选
2025-10-13 07:01
阅读:3186

【导读】:人类的学习是AI进化的基础,那人类真是硅基生命的过渡体吗?人类的学习对AI来说最终会变成弱智吗?AI能力的边界在哪里?人工智能或许存在无法逾越的终极天花板。未来,人类或将转向「解读AI」的角色,以重塑学习方式,实现人与硅基智能的共生。

前一阵子马斯克说碳基生命是硅基生命的过渡体,到底是对是错呢?

我想从人工智能近年来的进化展开聊聊。人工智能近两年来,从大的框架角度来说,完成了大语言模型的设计、基于大语言模型的AI agent的构造、多模态内容生成的实现

学习策略来看,监督微调正走向自监督学习,以尽量减少人类标注的需求,再通过强化学习来改进其对未知问题的学习能力。

在此大方向指引下,我们看到了大量的人工智能应用落地。但从本质上来看,都离不开学习二字。只不过与人类的学习不同,人工智能目前的学习方式是极度耗能、需要巨量数据依赖大量参数的学习模型。由于模型过于庞大,其中充斥了大量的非线性函数变换,以至于想从中找到可解释性变得异常困难。也由于其强非线性的特点,以至于数学大牛陶哲轩都在吐槽,说目前的数学界没有在此波人工智能热潮上发力。

实际上也是如此,与人工智能最接近的数学,是经常不被纯数学认可的统计学比如复旦,统计学都没放在数学学院,而归属于管理学院。但统计学研究的内容多数是线性框架下展开的。这里的线性指的是直线,而非线性则是抛物线、双曲线。强非线性则更为复杂。而数学领域目前非线性程度较大的研究分支是微分流形、拓扑等。然而,这样的几何学一般会假设局部线性,长程和复杂的非线性结构并不容易得到好的表征,尤其在人工智能的数据常常被表现成离散点后。要想让数学在强非线性的人工智能时代发挥更大的作用,可能需要一套新的理论体系。

正是依赖于模型里蕴含的强非线性,人工智能这一波表示出的学习能力已经开始将人类不少方面自以为的学习优势变得不值一提。比如围棋。现在人工智能模型的围棋训练,基本不需要依赖人类,因为也没有哪个人类棋手的棋力还值得AI的围棋模型去学习。人类与AI对弈时,也能发现其棋风有的时候很明显不是人类棋手能下出来的。这意味着,AI在围棋上的博弈水平已经凌驾于人类之上。

再比如绘画。今年OpenAI的GPT-4o的文生图功能推出后,我们能看到不同风格的绘画能快速通过该模型生成。而如果让人类画家来画,很有可能得花一天或更长的时间才能完成。虽然前者仍然存在不少的瑕疵,比如合照在转换时会丢人、汉字生成仍然存在明显的错误等,但按性价比来取代中流水平的画家,已经不是不可能。

或者再比如视频生成。国庆假期,OpenAI刚刚推出的Sora 2再次刷新了人们对于AI生成视频的认知。不论是从画面真实度、物理一致性、镜头运动、人物表情与情绪细节、故事叙事能力、还是生成速度与稳定性等方面,都展现出了前所未有的突破。但Sora 2的问题在于,这些看似完美的结果其实都是「AI的脑补」最终结果是AI说了算,而且不稳定。

即使是编程这一人工智能进化必须依赖的工具。从其学习出来的结果,也能看出人工智能编出来的程序规范工整、像模像样,毕竟知名大模型的研发都是无数清北复交这样水平或相当水平的码农在参与。其可读性比一般人写得要好得多。如果对相关代码熟悉的,只需要对大模型给出的代码进行针对性的改进,就能快速形成能跑通特定任务的代码。有的时候,看着人工智能生成的代码,我都会暗想,平时考试就考不过这些参与编程的码农,现在人家还抱团集思广义来做大模型,再加上大模型自己还能自我进化。

要想超越人工智能编出的代码,有可能在未来只是一种梦想。

由这些例子可以推测,人工智能模型的某些学习能力已经超越人类了。但是否意味着人工智能会全方位超越人类呢?这要回顾下1980年代的莫拉维克悖论以及1990年左右统计机器学习曾经流行的概念「转导学习」

莫拉维克悖论发现人工智能在学习的过程中,有一个特别有趣的现象,即人觉得简单的问题,机器会觉得复杂;人觉得复杂的,机器反而觉得简单。

在此悖论下,我们常以为的简单易重复的工作容易被AI淘汰,实际指的是AI觉得简单、可以方便其重复的工作。与「AI认为简单易重复,而人类却觉得复杂」相关的,其中一个重要元素就是学习对高阶知识的吸取、对抽象技能的把握,人类向来觉得非常复杂,于是我们不得不花漫长的时间来学习。它也是帮助人类区分于自然界其它生命的重要指标。自然界里,从来没有其他动物可以像人这样耗尽人生的一大半来上下求索。

但是在当前的人工智能时代,一个一个AI新成果的出现,似乎又在暗示着,人类的学习恰恰是AI更为擅长的。只不过,AI采用了更为简单粗暴的方式,即有技巧的穷尽一切可能,从而获得比人类学习规律、学习知识更为全面完整的集合,而每个人类能学到的规律知识只是它的一个非常小的真子集

如果这一假设成立,那很有可能与学习相关的多数行业会被AI替代。能在行业中继续生存下来的,也许只能是那些百里挑一甚至万里挑一的、行行里出的状元。不过,获得全集并非没有代价这些代价,会让人工智能实际上无法取代所有与学习相关的行业,比如高能耗的代价、高质量标注的代价,诸如此类。

也让他在进行判断时无法像人类一样在某些场合可以做出快速判断。而这其中的差异又可以再聊聊另一种学习机制,转导学习(Transduction转导学习在深度学习兴起之前,由统计机器学习先驱万普尼克(Vapnik)提出的观点。他认为当一个问题过于复杂,而实际要解决的只是问题的一个子集时,没有必要针对原问题进行精确求解,只需要针对子集来寻找替代方案即可。这样就能用相对简单的函数,来刻画本需要复杂函数才能表征的原问题,在子集下的预测。

或者反过来说,如果手头想解决的是一个问题的子集,我们就没必要把子集的问题复杂化到去求一个远比手头问题困难得多的任务上。这一观点,在统计机器学习时代是有效的。因为那时的数据集相对较小,算力也不强,所以统计机器在当时是占主流地位,而深度学习的前身神经网络则话语权弱得多。

类似于转导学习,我们可以再比较下人工智能的深度模型及人类在学习机制上的差异。显然,如前所述,人工智能目前的主流做法是堆算力、上数据量、加深网络,从某种意义来看,它是希望对通用人工智能问题进行求解,所以需要学习出一个极其复杂的函数

而人类并非如此,对人类来说,脑容量是有限的,不可能把进入大脑的信息事无具细全部记住,所以一直都是在找各种简化的解释性或规律,不管是归纳还是演绎,还是常说的快慢思维转化,本质上都是在做减法,以便在具体的问题上形成简单有效的决策和预测。

这也可以算是人类对世界规律学习中做的转导学习。但这种学习又并不能等同于人工智能当下喜欢讲的蒸馏,蒸馏一般是模型大小上的区别,从教师模型中学习知识,转为小模型的有用信息,帮助小模型获得更好的性能。

而转导则是结构上存在本质差异,类似从慢思维中总结出快思维的规则,类似于高中生刷了很多题后,能快速找到捷径一样。由于我们对大脑的认识还远远不够,人类这种转导学习的机理尚没有得到完美答案。虽然有一些被人工智能学走了,比如一部分思维链。但要弄明白全部的机理,尚需时日。

这也就意味着,人工智能至少在目前还无法完全取代人类。但一旦全部机理能被弄明白,并能够程序化、流程化,理论上人工智能都能学会。到那时,人类在知识方面的学习,对人工智能来说,会像学人类的围棋一样,没有任何意义了。

当人工智能达到这个水平时,也许在不久的将来,人类会产生一类新的工作,就是解读人工智能在不同领域里生成的成果以数学为例,不久将来的人工智能也许能具备强大的推理能力,可以发现一些复杂且新奇的数学定理或证明。但因为其思维逻辑有可能不同于人类,所以,需要有对相关问题精通的数学专业人士对其证明进行解读,再以多数数学家可以理解的方式进行重新诠释,整理成论文发表。

它意味着,即使是「解读师」,也需要进行专业知识的学习。人类也可能不得不对人工智能和人类自己做的产品进行分类标注,否则人类做的产品在数量级和质量级上都可能不占优势。

为了能从产品中找到一丝人类个性化的味道,可能人工智能做的会标明AI-made,人类做的Human-made,人机协作的是Human-AI-Augmented-made,就像现在的预制菜一样进行相对明显的标识,人类做的更有那种现炒的感觉。人们可以根据自己的需求来选择使用哪种,喜欢原生态的就用Human-made的,喜欢价廉物美的就是AI-made,两者皆可的还能选人机协作的。

当然,理论归理论,实际上人工智能应该还达不到我们假想的那种高度。因为莫拉维论悖论中还有一块是人类觉得简单、机器认为复杂的。这一块仍然有许多无法被人工智能学习到。

哪些是人工智能未来仍然会觉得复杂的呢?自然进化赋予人类的、与生俱来的能力。

快慢思维的转换、急智智能的表现、想象力、视角、留白、甚至个人行事的风格、特色。属于小样本、小概率事件的,都不太好学习,也无法通过高质量数据来形成统计规律来进行随后的生成。这也是为啥有些人的作品看了两页就知道结果,歌听了开头就知道旋律如何收尾,而有些人的作品却别居一格、易于出圈的原因。

即使是程序,除了人类现今推出的,还有自然界演化而来的,比如可以按时表达的DNA密码。它本质上也可以看成是一种程序,但人类至今没有完全参透其采用诸如内含子外显子进行编程的底层逻辑。人类搞不明白,就无法将其程序化、流程化地喂给AI去学习。 

还有一些是不可计算的,比如人类的一些隐性的思维,这都无法建模。       

除此以外,我相信还有一条规律会保护人类不会被人工智能全方位替代

人工智能归根到底,其源代码是人类设计的。而人又无法完全了解自己。这就是导致人工智能只有可能超越人类教过它的那一部分。人类自己都无法理解的部分,也没法教给人工智能,让其实现超越。

如果用稍微晦涩点的语言来说,就是哥德尔不确定性原理。即一个系统的完美性证明,自身是无法获得的,需要有一个系统之外的理论来完成证明。如果用通俗点的说法,需要有个比人类更聪慧的「外星生命」来降维打击。也许理解人类和人工智能的学习,重塑人工智能的时代学习,才是未来与人工智能和谐共处最好的办法,也能避免人类被硅基生命取代的可能性。

张军平

2025年10月13日

张军平,复旦大学教授,中国自动化学会普及工作委员会主任。研究方向包括人工智能、图像处理、生物认证、智能交通等。著有人工智能科普书和《高质量读研》系列书籍。其中《人工智能的边界》进入25年中国好书8月推荐书目。《人工智能极简史》2024年获第19届文津图书奖提名图书(科普类)、2024全国优秀科普图书作品。《爱犯错的智能体》2020年获中国科普创作领域最高奖等多个奖项。

转载本文请联系原作者获取授权,同时请注明本文来自张军平科学网博客。

链接地址:https://wap.sciencenet.cn/blog-3389532-1505686.html?mobile=1

收藏

下一篇
当前推荐数:12
推荐到博客首页
网友评论9 条评论
确定删除指定的回复吗?
确定删除本博文吗?