李侠
“人工智能+”需要基于原则而非利益考量的伦理设计 精选
2025-9-26 15:08
阅读:1215

R-C.jpg

人工智能+”需要基于原则而非利益考量的伦理设计

李侠 姚月

(上海交通大学科学史与科学文化研究院)

2025年8月26日国务院发布《关于深入实施“人工智能+”行动的意见》,该项政策明确指出,人工智能将从六个领域全方位嵌入社会生活,从科学技术、产业发展、消费提质、民生福祉、治理能力再到全球合作,它覆盖了我们所有人的生活,也许十年后的生活模式将是我们今天完全无法想象的,就如同谁能想到20年前支付宝的横空出世彻底改变了传统的一手交钱一手交货的支付模式,这还仅仅是互联网时代的一个局部变革,而这次变革是全领域、全方位的,从长远来看,这项政策将彻底改写我们千百年来的生活方式与存在状态,它的深远影响与意义怎么说都不为过;从中、短期来看,这项政策将是中国未来十年发展的底层逻辑与行动指南,我们正在见证一场新的产业革命正在从身边冉冉升起,问题是如何让这个被制造出来的未来是友好的,也是体面的,这就需要我们为未来设定一些规则的护城河,虽然不能一劳永逸地保证永远正确,但至少可以为人工智能的有序发展提供了一些可控的防御机制,并为未来的改进争取了时间的保证。古人所谓:不谋万世者不足以谋一时,不谋全局者不足以谋一域,那么在“人工智能+”全面到来之前我们在治理领域该做些什么呢?

在人工智能全面改变我们的生活之前,我们需要清醒地意识到,随着科技的发展与技术迭代的加速,人工智能会展现出更多的机会与不确定性,在刚刚结束的2025世界人工智能大会上,2024年诺贝尔物理学奖获得者杰弗里·辛顿直言,AI已无法消除,它能大幅提升几乎所有行业的效率,即便有国家想消除,其他国家也不会认同。他认为面对人工智能的不可阻挡的发展浪潮人类所能做的只是:培养不会从人类手中夺权的“好AI”。 在人工智能的“军备竞赛”早已展开的当下,作为深度学习领域资深专家的辛顿对于人工智能略带悲观的论点,绝非危言耸听。这种技术脱域现象早在10年前就已显现,2016年,DeepMind公司推出的围棋程序AlphaGo在2016年3月10日与韩国围棋冠军李世石的第二场比赛中下出了无人能理解的第37手棋,后来证明正是这手棋决定了本场比赛的胜负,AlphaGo的开发者穆斯塔法·苏莱曼事后曾说:我们人类面临一个全新的挑战——未来的新发明,会不会完全超越我们的理解的范围?GPT-4、AlphaGo等技术软件是一个又一个黑盒子,输出的信息与做出的决定,就是基于各种不透明而又极其复杂的微小信号链。这就是笔者所谓的技术脱域现象:技术脱离人类的控制。面对新技术革命的到来,单纯的悲观与乐观都于事无补,为了人类共同的未来考虑,必须未雨绸缪地考虑设计一些规范来引领人工智能的发展,大禹治水的经验就是改“堵”为“疏”,而有效的疏通则需要一套行之有效的规则来保障,那么,这些规则该基于什么理念来设计,它又包括哪些内容呢?

由于每个人/群体都要受到特定历史、认知、偏好与价值观等文化因素的影响,要在规则内容上达成共识是非常困难的,人与人之间的价值对齐尚且如此困难,目前的研究显示,人-机、机—机之间的对齐更加困难。瑞士社会学家海尔格•诺沃特尼(Helga Nowotny)曾提到,苏黎世联邦理工学院的研究团队决定分析84份伦理文件,这些文件作者来自世界各地的企业、专家团体、政府、国际组织。约半数来自私营部门,另外半数来自公共机构,研究团体惊讶地发现,竟然没有一条伦理原则是每份文件都提过的,11条原则往往是分散在各份文件中,五项重点纳入了半数以上的文件,这五项原则分别是:透明化、正义、公平、预防伤害与责任。由于研究样本来自不同的机构和群体,这个结论能够反映出当下社会各界在科技伦理方面达成的一些有限共识,换言之,这些原则都是近年来人工智能实践中总结出来的,有丰富的经验基础。如何在这个基础上使规则的设计再提升一步呢?使之具有更大的普遍性就成为当下亟需解决的问题,毕竟,“人工智能+”不能在无规则的情况下发展。

设计关于人工智能的伦理规则需要本着什么样的原则才能保证伦理规则是长效的,也是可以被更多人所接受的呢?笔者认为一个最基本的出发点就是:它是基于原则而不是基于利益的。只有基于原则的伦理规则才能实现普遍化,这符合康德的观点,道德行为的正当性取决于其准则是否可被普遍化。反之,基于利益制定的伦理规则,尽管可能符合功利主义与实用主义的目标,但却是短视的,其后果只能是零和博弈,总会使一方受益的同时导致他方利益受损,最终这种基于利益设计出的规则也会反噬自身。之所以强调基于原则而非利益,是因为原则是对事物或现象本质的揭示,具有恒常性,否则可以设想,一旦人工智能取得突破,总会有一些人利用技术梯度差或者时间差获取不当收益,甚至危及人类的安全,当所有人都这么做,将不可避免地陷入恶的循环,最后导致一项新技术不但没有造福人类反而成为个别人或机构获取不当收益甚至奴役他人的手段。笔者以前曾撰文指出,大数据杀熟就是这种情况的最轻微表现,基于利益制定的伦理规则,由于其短视行为最后不可避免地造成整个社会陷入“囚徒困境”,从而让整个社会重归“丛林原则”状态,也许更为可怕的是,基于利益设计的规则可能造就人工智能的“利维坦”,这是我们制定伦理规则之初就应当极力避免的。

中国是世界制造业大国,这是工业化时代的伟大成就,因为工业产品中不涉及智能与价值观仅有成本考量,而人工智能产品则天生负载价值观,如果我们的人工智能产品最终还是要走向世界的,而我们的产品所依循的伦理规则不是基于原则而是基于利益设计的,导致人工智能产品幻觉现象频发,不难设想这样的产品将无人问津,从而失去世界市场。从这个意义上说,规则越是普遍的,也越是世界的。

由于科技会出现迭代现象,伦理标准应该与之同步变更,遗憾的是人类社会中规则的变化总是慢于科技的变化,这就不可避免地会出现“伦理代差”,尤其是针对以人工智能为代表的高科技,这种伦理规则的滞后性愈发凸显,将不可避免地在某些领域出现“伦理失灵”与“伦理真空”现象,对于全局性的技术而言,这种可能性将大大增加了,这是整个社会承受不了的代价。因此,伦理规则设计与“人工智能+”同行甚至先行就是营造健康发展的必要生态。结合海尔格•诺沃特尼的研究结果以及笔者的调查,那么基于原则而非利益的伦理规则设计应该围绕以下四个得到大多数人认可的问题切入,公正问题、责任问题、隐私问题与安全问题,目前这四个问题已成为人工智能领域最紧迫也是得到全世界认同的问题。众所周知,目前的很多规则的制定都是由人工智能头部企业率先推出来的,而企业本能地会基于自身的利益而制定规则,此时的规则就存在巨大的伦理隐患,如一些人工智能产品的算法粘性问题,相信看过各类短视频的人都对此深有同感,这还是危害最小的行为,毕竟它仅仅侵蚀了人们的时间,MIT最新研究表明,长时间用ChatGPT写作,会让大脑“变傻”,从长远来看一项能让人乐此不疲自愿变傻的技术显然是不道德的,但主要责任归谁呢?更有甚者在算法中植入偏见,经过互联网的指数级扩散人为制造人类社会的分裂,如果再极端一些的不惜采用数据投毒(有意或无意),那么这种人工智能给人类带来的危害将是难以预料的,这些行为背后都隐含着或明或暗的利益考量,针对这种伦理的脆弱性,最直接的解决办法就是公开算法,让算法完全透明化,为了避免个人认知的局限性,甚至可以采用算法民主化,只有经过大多数人都同意的规则才接近普遍性的规则,这样才能最大限度上遏制伦理风险的发生。

围绕这四个问题,我们可以组织力量牵头制定出一套可以被世界广泛接受并具有普遍性的长效伦理规则,甚至可以说,未来人工智能的竞争,除了硬件的比拼之外,伦理规则的竞争影响力将会更长久,毕竟规则的迭代速度远远落后于技术的迭代速度。规则的话语主导权一旦形成很难转移,就如同今日的英国,虽然在人工智能等科技方面已经落后了,但其在近代以来基于原则而设计出的各种概念框架至今仍深深地影响着全世界的社会治理模式。从这个意义上说,借助于“人工智能+”的东风,构建基于原则而非利益的伦理规则恰逢其时。

 

what-is-interest_tile.png

【博主跋】这篇小文章发表在《光明日报》2025-9-25的16版,发表时题目略有改动,这是原稿,与齐老师合作愉快,是为记!

说明:文中图片来自网络,没有任何商业目的,仅供欣赏,特此致谢。

2025-9-26于南方临屏涂鸦

转载本文请联系原作者获取授权,同时请注明本文来自李侠科学网博客。

链接地址:https://wap.sciencenet.cn/blog-829-1503643.html?mobile=1

收藏

下一篇
当前推荐数:5
推荐到博客首页
网友评论0 条评论
确定删除指定的回复吗?
确定删除本博文吗?