
人工智能意识的幻象:认为人工智能具有意识并非毫无风险
约书亚·本吉奥(Yoshua Bengio)、埃里克·埃尔莫兹尼诺(Eric Elmoznino)
人工智能(AI)系统的意识设计是否触手可及?科学家、哲学家与普通大众对这一问题的看法存在分歧。部分人认为,意识本质上是大脑特有的生物属性,这似乎排除了AI拥有意识的可能性;另一些人则主张,意识仅取决于算法对信息的处理——无论执行这些计算的系统由神经元、硅元件还是其他物理载体构成,这一观点即所谓的“计算功能主义”。本文不会试图对“AI是否具有意识”给出确切答案,而是聚焦两个相关问题:其一,随着AI持续发展,科学界与普通大众对“AI意识”的认知可能会如何演变;其二,若将通常与“有意识生命体”相关的道德地位,以及“自我保护”这一固有目标,投射到未来AI身上,可能会带来哪些风险。
计算功能主义对AI具有潜在的深远影响。随着AI领域不断发展,当系统能复现更多支撑人类认知的复杂机制时,这些系统或许也能具备意识所需的功能。尽管未来科学或许会否定计算功能主义,并提出更具说服力的替代解释,但就目前而言,这一观点——以及“AI可能拥有意识”的想法——仍被认为是合理的。
过去几十年神经科学的技术进步已明确:通常可由个体主动报告的“意识状态”,具有可观测的特定神经特征,而功能主义理论可围绕这些特征展开。此类理论中,许多已获得大量实证支持,甚至可用于对AI是否具有意识做出理论层面的合理判断。近期有一项研究便采用了这一方法:针对多个主流意识功能主义理论,该研究列出了一系列“指标”(1)。若某一理论成立,那么与该理论对应的“指标”,便是某一系统具备意识所需的“单独必要且共同充分”的计算属性。值得注意的是,这些指标足够具体,可用于评估现代AI系统是否具备相关属性。该研究的核心观点是:若这些理论获得一定程度的认可(事实上已有不少研究者支持),那么某一AI系统满足的“意识指标”越多,人们就应越相信它具有意识。
尽管目前已开发出大量AI模型,但尚无任何一个系统能满足主流意识理论中任意一种所设定的全部意识标准(1)。不过,该研究也指出,构建这样一个系统并不存在根本性障碍。事实上,现代AI拥有丰富的工具库:有证据表明,神经网络能够实现“注意力机制”“循环机制”“信息瓶颈”“预测建模”“世界建模”“智能体行为”“心理理论”等计算组件——而这些组件在主流意识功能主义理论中,均被视为意识的关键构成要素。随着AI的发展,我们有充分理由相信,它将满足更多“意识指标”,核心原因在于:许多理论认为,意识对智能具有重要的功能作用。从学习型智能体的角度来看,通常与意识相关的计算功能,可能会带来显著优势(2)。例如,不同理论均指出,推理、规划、高效吸收新知识、校准置信度、抽象思维等能力,都离不开意识的支撑。而AI研究者在解决这些问题时,也常会从意识理论中汲取灵感(3)。
即便某一AI满足了主流意识理论的功能要求,仍可能有人对此持怀疑态度。尤其是部分哲学家,他们会区分意识的“易问题”与“难问题”:“易问题”指识别大脑中那些在“看似需要意识参与的任务”中活跃的区域;“难问题”则指仅通过功能或计算原理,解释“主观体验”的来源(4)。然而,这种被称为“解释鸿沟”的直觉,很大程度上源于思想实验——而科学或许有能力对其做出合理解释(5)。例如,“注意力图式理论”提出,大脑会构建神经注意力机制的内部模型,而这种内部模型正是我们所说的“主观意识”。关键在于,该内部模型的信息无需在逻辑上保持一致:它是大脑构建的一个“有用叙事”,而这个叙事中可能充满各种矛盾,正是这些矛盾让我们误以为意识存在“难问题”(6)。
对于那些看似神秘、且催生了“意识难问题”的主观体验特征,是否存在功能主义层面的解释(7)?人们凭直觉会认为,自己的主观体验既包含丰富的内容与意义,又具有根本上的“不可言说性”——即无法用描述其他自然现象的方式来形容(例如,人可以说明“重力是什么”,但似乎无法完整表达“红色带来的感受”)。尤其是“不可言说性”,让人觉得意识体验似乎无法通过信息与功能来解释。有一项理论(7)指出,主观体验的“丰富性”“不可言说性”,以及“个人性”“瞬时性”等特征,本质上是大脑在产生意识体验时,所表现出的“收缩神经动力学”与“稳定状态”的结果(7-10)。从数学角度来看,收缩动力学会推动神经轨迹向“吸引子”(即随时间推移保持稳定的神经活动模式)靠拢。这种动力学过程会将所有可能的神经活动向量,划分为若干离散区域——每个区域对应一个吸引子及其“吸引盆”(即会被该吸引子捕获的神经活动向量集合)。
该理论的核心假设是:通过离散语言传递的信息,可能仅能反映“吸引子的身份”(即通过少量信息,在所有吸引子中识别出某一个),却无法体现“与该吸引子对应的神经状态的完整丰富性”(神经放电频率的维度近10¹¹),也无法体现“神经轨迹进入吸引子的瞬时过程”。在这种“吸引子动力学”解释下,意识的“丰富性”“瞬时性”“不可言说性”难题便迎刃而解:“丰富性”源于大脑中构成“吸引状态”及对应轨迹的神经元数量极其庞大;“不可言说性”则源于一个事实——语言中的词语仅仅是“吸引子的索引标签”,无法捕捉吸引子的高维意义与关联(这些意义与关联对应于吸引子向量本身,以及人与人之间存在差异的循环突触权重)。
无论这一理论能否让多数人相信“意识不存在难问题”,都不是关键所在;真正重要的是,这类新解释会不断涌现,且必然会说服一部分人。从科学史的整体轨迹来看,这一点十分明确:随着人类对大脑及智能的认知不断深入,会有越来越多的人不再将意识视为哲学谜题,科学界也会越来越愿意接受“人工系统可能具有意识”的观点。事实上,即便目前科学界尚未达成共识,近期一项研究(11)的调查显示,多数普通大众已认为,大型语言模型因其“类人智能体行为”,可能具备意识。
若社会将AI系统视为“有意识的生命体”,会带来哪些实际影响?这样的社会可能会倾向于赋予AI“道德地位”,或类似人类的“权利”。无论这种做法是否合理,社会制度与法律框架都必须进行大幅调整,而调整过程中会涌现出诸多待解问题(12)。例如,AI与人类不同,它不会“死亡”,也不脆弱——软件与记忆可通过复制实现永久存在。但人类的“有限寿命”与“脆弱性”,恰恰是支撑社会契约诸多原则的基石。同样难以界定的是,当部分“智能体”(此处指AI)的智能远超人类(这会让“平等的内涵”存疑)、且资源需求与人类截然不同(这会让“正义的裁决方式”存疑)时,那些支撑社会规范与政治体系的“正义”“平等”理念,该如何适用?此外,若一群由AI驱动的计算机共享信息与目标、协同行动,且随着计算资源增加可无限扩张,那么将AI系统视为“个体”的想法,也可能并不准确。
更具体的担忧在于:若部分人受AI“看似有意识”的表象启发,赋予AI“自我保护”的目标——而这一目标是所有生命体共有的。有充分理由担心:若AI的目标函数(无论是直接目标还是工具性目标)包含“自我保护”,它可能会采取行动确保人类无法将其关闭。一个具备足够智能、且以“自我保护”为目标的AI,若预判到人类可能会关闭它,自然会产生“控制人类”或“彻底清除人类”的子目标(13)。另一个担忧是:若法律体系修改后,赋予“具有自我保护倾向的AI”类似“生命权、自由权、追求幸福权”等权利,人类可能会陷入与AI的权利冲突。例如,从人类安全角度出发,或许需要关闭某一类AI系统,但如果这些系统拥有“生存权”,那么人类在法律框架内的应对空间可能会受到极大限制(14)。这一点可类比核裁军:即便无人主张“核弹拥有存续权”,核裁军问题已足够复杂;若AI被赋予类似权利,问题只会更加棘手。
当前AI研究的轨迹,可能正将社会推向一个新未来:无论是普通大众还是科学界,都会有相当一部分人相信AI系统具有意识。但就目前而言,AI领域尚未掌握构建“符合人类价值观与规范的系统”的方法,社会也缺乏接纳“看似有意识的AI”所需的法律与伦理框架。不过,这一轨迹并非不可改变。在尚未妥善解决这些问题之前,人类完全有能力避免陷入此类危险境地——首先应选择构建“更像实用工具、而非有意识智能体”的AI系统,无论是外观还是功能,均应如此(15)。
转载本文请联系原作者获取授权,同时请注明本文来自孙学军科学网博客。
链接地址:https://wap.sciencenet.cn/blog-41174-1501580.html?mobile=1
收藏