程京德(Jingde Cheng)的博 ...分享 http://blog.sciencenet.cn/u/JingdeCheng 相关逻辑,软件工程,知识工程,信息安全性工程;自强不息,厚德载物。

博文

人工智能应用中的行为主体问题实例 -- Google DeepMind 关于AGI模型分类框架中的问题 精选

已有 3251 次阅读 2023-11-17 06:58 |个人分类:人工智能|系统分类:科研笔记

[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!


人工智能应用中的行为主体问题实例 - Google DeepMind 关于AGI模型分类框架中的问题 

程京德

 

人工智能应用中的行为主体问题

“人工智能应用中的行为主体问题”是笔者在考查人工智能终究能否超越人类智能时发现的、似乎在人工智能领域被学者们常年所忽视的一个根本性哲学问题:在一个人工智能系统的成功应用中,行为主体究竟是谁?[1,2] 

为了不引起误解,下面先给出下面行文中一些概念的定义[1]:

“解决问题”一词用于指称某个(某类)行为主体对于给定的某个(某种)问题找到解决该问题的方法并且用该方法实际解决了该问题,问题是否得到正确解决的判断是由该行为主体自身做出的。

“人工智能系统”一词用于指称能够执行为解决某个(某种)特定问题由人类设定了初始应用程序并且在完成任务时呈现出一定类似智能行为特征的计算机系统。这里,“人工”的限定意义在于该计算机系统执行的初始应用程序是由人类设定的,尽管在完成任务的过程中该系统也可能会执行由其自身自动生成的程序指令。

“评价标准”一词用于指称在评价事物时用到的衡量准则,可以是定性的,被称为“定性评价标准”,也可以是定量的,被称为“定量评价标准”;实施评价的行为主体必须能够依据该准则实际可行地对被评价事物做出评价。

“评价事物”一词用于指称实施评价的行为主体依据确切的评价标准对被评价事物做出定性的或者定量的评价赋值。

关于“计算”中评价标准的建立及其使用的行为主体的说明:因为任何计算程序对于计算过程(运行中的计算机系统)何时获得问题所要求正确结果之评价标准都是已经包含在人类发明并且预先给与计算机系统执行的算法当中的,运行中的计算机系统仅仅在按照程序指令执行计算过程时不断检查计算结果是否符合正确结果之评价标准而决定计算过程的终结,所以,对于计算问题解决与否的判断,不能说是完全由计算机系统作为行为主体自身完成的,而是基于人类给与的算法中给定的评价标准由计算机系统完成的。

关于人工智能系统“解决”问题的说明:我们已经定义了“解决问题”一词用于指称某个(某类)行为主体对于给定的某个(某种)问题找到解决该问题的方法并且用该方法实际解决了该问题,问题是否得到解决的判断是由该行为主体自身做出的。我们还定义了“人工智能系统”一词用于指称能够执行为解决某个(某种)特定问题由人类设定了初始应用程序并且在完成任务时呈现出一定类似智能行为特征的计算机系统,“人工”的限定意义在于该计算机系统执行的初始应用程序是由人类设定的。所以,任何由人工智能系统“解决”的问题,对于问题解决与否的判断,不能说是完全由人工智能系统作为行为主体自身完成的,而是依据人类设定的初始应用程序由人工智能系统完成的。

 

实例:Google DeepMind 关于AGI模型分类框架中的问题

Google DeepMind 的几位研究者最近发表了一篇文章,提出了一个对人工通用智能(AGI)模型的能力和行为进行分类的框架。该框架引入了AGI性能、通用性和自主性的级别。该文提出AGI应该满足的六个原则:关注能力而非过程(Focus on capabilities, not processes);关注一般性和性能(Focus on generality and performance);关注认知和元认知任务(Focus on cognitive and metacognitive tasks);关注潜力而非部署(Focus on potential, not deployment);关注生态有效性(Focus on ecological validity);关注通往AGI的路径而非单一终点(Focus on the path to AGI, not a single endpoint) [3]。 

首先,因为无论怎样去定义AGI,AGI自身都是一个离开与人类智能之比较就不可能成立的概念,所以,定义AGI必然牵涉到行为主体问题。然而,该文通篇都没有提及人工智能系统的行为主体。

实际上,该文提出的AGI应该满足的第一个原则,关注能力而非过程,本质上就是要有意忽视AGI的实现机制,只注重于其功能。那么,针对于AGI要匹敌(甚至超越)人类智能的本质要求,一个实现了某种功能(姑且不论其通用性和自主性)的人工智能系统,解决问题,制定评价标准,基于评价标准去评价性能的行为主体究竟是谁?该人工智能系统自身?还是实现该系统的人类?行为主体不明,如何比较AGI和人类智能?

该文提出的AGI应该满足的第三个原则,关注认知和元认知任务,也应该是与行为主体有关的。认知,尤其是元认知(文中提到求助于人类帮助),的行为主体究竟是谁?

该文中另外一个应该与行为主体有关的概念是“自主性(Autonomy)”。该文通篇到处都出现“自主性”这个概念,并且给出了一个自主性级别分类。所有低级别的自主性多少都需要人类的参与,因此,显然有行为主体究竟是谁的问题。最高级别5的分类标准为:一个人工智能系统作为代理者具备完全自主的能力(AI as an agent, fully autonomous AI)。那么,回到我们的行为主体问题,一个人工智能系统的完全自主性是针对/相对谁的自主?其完全自主性是如何达成的?(按照该文提出的AGI应该满足的第一个原则,似乎这个问题就不应该问!) 具有完全自主性的行为主体究竟是谁?该人工智能系统自身?还是实现该系统的人类?行为主体不明,这种所谓的自主性有真实意义吗?如何比较AGI和人类智能?

笔者认为,如果不定义和讨论清楚人工智能系统的行为主体,不在人工智能和人类智能之间就行为主体问题划清界限,那么说AGI能够匹敌(甚至超越)人类智能,都是没有哲学基础的“胡扯”。[幽默微笑] 

(2023年11月16日记)

 

参考文献

[1] 程京德,“人工智能永无可能超越人类智能(初稿)”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年5月1日。

[2] 程京德,“人工智能应用中的行为主体问题实例 -- 究竟是谁预测了蛋白质结构?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年10月29日。

[3] Meredith Ringel Morris, Jascha Sohl-dickstein, Noah Fiedel, Tris Warkentin, Allan Dafoe, Aleksandra Faust, Clement Farabet and Shane Legg,“Levels of AGI: Operationalizing Progress on the Path to AGI,” arXiv.org, 2023-11-04. 



微信公众号“数理逻辑与哲学逻辑”





https://wap.sciencenet.cn/blog-2371919-1409952.html

上一篇:人工智能应用主体问题实例 -- 究竟是谁预测了蛋白质结构?
下一篇:人工智能应用中的行为主体问题实例 -- Geoffrey Hinton 对人工智能技术发展之担心与恐惧的哲学根据在哪里?
收藏 IP: 111.47.64.*| 热度|

3 宁利中 崔锦华 张鹏

该博文允许注册用户评论 请点击登录 评论 (2 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-1 21:18

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部