程京德
“人工智能威胁人类论” (3) 霍金、马斯克们的警告毫无科学根据
2015-2-3 08:19
阅读:4869

[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!


“人工智能威胁人类论” (3)   霍金、马斯克们的骇人听闻警告毫无科学根据

程京德


关于“人工智能威胁人类论”,本人的看法如本文小标题所示。

下面先给出两点说明:

首先,凡是认真读过、理解了1月12日那封公开信的人,再对照一下媒体的报道,就会很清楚地发现,那封由众多知名人工智能科学家发起并签署的公开信(Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter)本身以及附属文件(Research priorities for robust and beneficial artificial intelligence)之内容,远没有媒体报道的那么骇人听闻,媒体报道是添了油加了醋的!所以,下面的讨论,与其说是针对公开信,倒不如说是针对霍金、马斯克及其他们的追随者们(包括媒体的那些添油加醋的记者们)的

其次,关于何谓“人工智能”,请参照本人上一篇博文。以下讨论,全部基于本人上一篇博文中有关“人工智能”的定义来展开。

本人的看法之科学根据如下:

第一,因为“人工智能”的所有实际应用,归根结底,都是必须要通过使用“现代通用计算机”这一基本工具和“计算”这一基本手段来实现的,所以,所有“人工智能”实际应用问题,首先都必须是在计算机上理论(亦即,可计算性)可计算的,其次还都必须是在计算机上实际(亦即,计算复杂性程度)可计算的。任何问题的可计算性和计算复杂性,是该问题固有的计算性质,与当前的或者今后的计算机计算能力无关。

第二,因为“人工智能”的最终目的是通过具有类似于人类智能的计算程序控制来实现(模拟)“人类智能”,那么这样的计算程序,至少最初是要由人来编制的,即便是最后的执行程序可能是由程序(元程序)生成的。

第三,因为“人工智能”的各种具体应用最终是完全自动化的,所以,任何在某个阶段或者某个时间点处必须有人参与控制的“人工智能具体应用”,实际上都不是“人工智能”单独的效果,而是“人类智能”和“人工智能”叠加的效果;一般来说,在这类应用当中,起本质重要作用的,仍然还是“人类智能”而非“人工智能”。

第四,要让具有类似于人类智能的计算程序控制来实现(模拟)“人类智能”,该计算程序必须至少具备类似于人类的一般的逻辑推理能力。

第五,所有以物理方式实现的计算机(包括今后制造出来的),在计算原理上与现在的通用计算机不会有本质上的差别,尽管快速计算能力可能会有所提高。

第六,以生物方式实现的“生物计算机”(今后如果可能制造出来的话),在原理上应该是以变异、进化等等生物特征来实现计算的了,这已经是“生物智能”而非“人工智能”了。

结论:“人工智能威胁人类论”那些骇人听闻的所谓警告毫无科学根据,人工智能领域的科学家们和工程师们大可不必担心自己的科研成果和工业产品会对人类直接造成什么所谓的“威胁”和“危险”,社会大众尽可放心地享受人工智能技术为我们的工作与生活带来的便利,人工智能技术本身现在没有、将来不会、永远也不可能给我们人类带来什么黑暗甚至毁灭我们人类。如若真有那么一天人工智能技术被用来(请注意,“被用来”,这非常重要)造成对人类(其实最多是对某个具体人或者某个具体人群)有所损害,则也是我们人类社会当中一部分人(亦即,使用者)自己引起的问题,那是要在人类社会中由我们自己来通过社会手段来解决的,与人工智能技术无关!

(本人欢迎赞成“人工智能威胁人类论”的评论者对本文结论提出基于科学的理性批评,并将以另文对批评(如果有的话)作答。)



转载本文请联系原作者获取授权,同时请注明本文来自程京德科学网博客。

链接地址:https://wap.sciencenet.cn/blog-2371919-865058.html?mobile=1

收藏

分享到:

当前推荐数:0
推荐到博客首页
网友评论9 条评论
该博文允许实名用户评论
确定删除指定的回复吗?
确定删除本博文吗?