王宏琳
图灵测试、“中文房间争论”及《智能机器如何思考》 精选
2019-9-20 07:43
阅读:14379

在20世纪的一段时间里,学术界颇为流行思想试验。在物理学领域,最为著名的当属阿尔伯特·爱因斯坦,他把一些极其复杂的概念,用真实生活中的简单情景来描述,称为Gedankenexperiments(德语中的思想实验)。而在人工智能领域,最有影响的是艾伦·图灵的“Imitation Game(模仿游戏)”,即众所周知的“图灵测试”——它不同于纯粹的虚拟试验,是可实施的实验。哲学家约翰·希尔勒曾经用他的“中文房间争论”思想实验,对图林测试提出异议,并批驳“强人工智能”,认为程序不可能给计算机“思想”、“理解”或“意识”。最近读了MIT出版社出版的新书《智能机器如何思考》,不由得对图灵测试、“中文房间争论”和机器思考问题重新观察一番。

【图灵测试概念最早在哪篇论文中提出的?】

有人误称图灵在1950年发表题为《机器能思考吗?》一文提出了图灵测试。在我的上一篇博文《图灵发表过题为<机器能思考吗?>的文章吗?》,对此提出了质疑。其一,至今没有任何证据证明图灵发表过题为《机器能思考吗?》文章,但所传说的《机器能思考吗?》一文中的测试形式和具体设想的内容,全部可以在图灵的题为《计算机器与智能》(参考资料[1])一文中找到。其二,许多有关文献明确说明图灵是在《计算机器与智能》一文中提出了(后来被称为的)“图灵测试”。例如,在《The Annotated Turing》(参考资料[2])一书中第359页,有这么一段话:也许并不奇怪,最早探索人工智能概念的人之一是艾伦·图灵本人,他在1950年发表的《计算机器与智能》一文最著名,在这篇文章中他发明了现在称之为图灵测试的东西”。

虽然图灵测试是图灵在1950年论文《计算机器和智能》(Computing Machinery and Intelligence,CMI)中提出的,但是,其雏型可以追溯到1948年图灵为英国国家物理实验室(NPL)撰写的一份题为《Intelligent Machinery(机器智能)》的研究报告,该报告被为是人工智能的第一个宣言(参考资料[3],第11页)。报告的核心主题源于尚处于萌芽阶段的机器智能科学。图灵在报告中指出:

即使在目前的知识阶段,也有可能在这些方面做一些小实验,设计出一台能下棋的纸机器(paper machine)并不难。现在让A,B和C三个人做实验。A和C是相当差的棋手,B是操作机器的操作员。(为了使他能很快地完成这项工作,建议他既是数学家又是棋手。)两个房间都有一些用于动作通讯安排,并且在C和A或纸机器之间玩游戏。C可能会发现很难分辨出他在与哪个下棋。

【在CMI中是如何描述图灵测试的?】

1950年,艾伦·图灵在他的著名论文CMI(《计算机器和智能》)中提出了对机器智能的测试方法——衡量一台机器的智能,在多大程度上与人类的智能相像,或不可区分——图灵在论文中称之为“The Imitation Game(模仿游戏)”,后来被称为“图灵测试”。

图灵的模仿游戏是一种可操作的测试,也就是说,它提供了一种确定实体是否智能的具体方法。测试包括一个在一个房间里的人造实体被测试者(机器,A),在另一个房间里的帮助测试作为对比的人(B),以及在第三个房间里的询问者(人,C)。询问者只允许使用诸如电传打印机设备与被测试的人和人工实体进行通信,并根据问题的回答,区分被测试的人和人工实体。如果询问者不能做到这一点,图灵测试就通过了。

请注意,测试结果并不取决于每一个答案是否正确,而是取决于其响应与人类答案的接近程度。计算机被允许愚弄测试人员,尽一切可能迫使询问者作出错误的识别。如果询问者不能识别出哪一个是机器,哪一个是人,那么计算机就成功地通过了测试,这台机器被认为是智能的。图灵在文章中还给出问答的示例,如:

Q:請写一个以福斯桥(Forth Bridge)为主题的十四行诗。

A:这个就算了。我从不会写诗。

Q:34957加上70764。

A:(停顿了30秒然后给出答案)105621。

Q:你玩国际象棋么?

A:玩的。

Q:我在K1有K,没有其它了棋了。你只有K6的K 和 R1的R。现在是你走了,你怎么玩?

A:(停了15秒)R到R8。

                                              image.png

图灵测试示意图

成功地玩模仿游戏的能力,是图灵提出的判别机器是否思考的标准。他还举了一个例子,说明询问者和一台机器之间可能发生的那种问答:

询问者:在你的十四行诗的第一行“我可以把你比作夏天吗?”,“春天”不是比这更好吗?

机器:它不合韵律。

询问者:冬天怎么样?那就可以合韵律了。

机器:是的,但是没有人愿意和冬天相比。

询问者:你会说皮克威克先生让你想起了圣诞节吗?

机器:在某种程度上。

询问者:但是圣诞节是冬天,我认为匹克威克先生不会介意这样的比较。

机器:我不认为你是认真的。一个冬天的一天是典型的冬天,而不是像圣诞节这样特殊的一天。

在1950年的论文中,图灵还巧妙地预测到2000年,将会有存储容量为1G(非常有先见之明)的计算机,能够进行图灵测试——询问者在提问五分钟后确定身份,平均不会有超过70%的机会做出正确的选择。

【是否已经有机器通过图灵测试的?】

最早尝试过图灵测试的是1964 年麻省理工学院的约瑟夫·魏泽保编写的聊天机器人自然语言处理计算机程序Eliza,该程序的目的是证明机器和人之间交流能力。1991年,纽约商人休·洛布纳宣布了奖金竞赛,为第一台通过图灵测试的计算机提供了10万美元的奖金。2014年,在英国皇家学会组织的图灵测试比赛中,由一名俄籍美国人和一名乌克兰籍俄罗斯程序人员开发的计算机程序尤金·古斯曼,冒充一个“13岁的乌克兰男孩”,成功地让人类认可了“他”的身份。此时,正值图灵逝世60年之际。在图灵的定义中,如果机器在30%的时间内愚弄了人,使之错以为对方是人的话,就算通过测试。尤金在一系列键盘组成的对话中,让30名裁判中的33%认为其是人类。

【是否有人对图灵测试持有反对意见?】

自从艾伦·图灵的论文《计算机器和智能》发表以来,图灵测试受到了哲学家、计算机科学家、心理学家和其他人的相当大的关注,也有人对测试提出反对意见。然而,正如B·J·科普兰在《The Essential Turing》一书(参考资料[3])中指出,这些反对意见都是不成功的。

在反对者中,最有名的是约翰·麦卡锡(John McCarthy,斯坦福大学计算机系教授,因在人工智能领域的贡献而在1971年获得图灵奖)和克劳德·艾尔伍德·香农(Claude Elwood Shannon ,麻省理工学院教授,信息论的创始人)。他们设想了一种假想的计算机,它能够在任何设定的时间内成功地玩模拟游戏,因为它结合了一个非常大的“查找”表。该表包含在运行测试的时间段内询问者和计算机之间可能发生的所有问答。很明显,询问者无法将使用此表的计算机的回答与真人的回答区分开来。然而,计算机除了搜索由其(假设的)程序员提供的表之外,什么也不做。因此,原则上,一台不会思考的、没有智能的计算机也可以通过测试。

1980年,约翰·希尔勒(John Searle)用他称为“CRA(Chinese Room argument,中文房间争论)”的思想实验,对图灵测试提出了异议。约翰·希尔勒的CRA与麦卡锡-香农的查找表如出一辙。

【CRA是在希尔勒哪篇文章中提出的?】

 图灵在1950年提出了模仿游戏(即图林测试)的概念:如果一台计算机能够通过在线聊天,那么它应该被视为智能计算机。图灵乐观地认为,计算机本身很快就能表现出明显的智能行为,能够回答用英语提出的问题并进行对话。到了20世纪70年代末,随着计算机速度的加快和价格的降低,新兴的人工智能社区中的一些人声称他们的程序可以使用信息数据库理解英语句子。其中耶鲁大学研究员罗杰·夏克开发的程序可以接受一个简单的故事,然后用大量的规则、启发法和脚本,回答关于它的问题(参考资料[4])。引起了哲学教授希尔勒的注意,他是早期人工智能研究者所作主张的批评者。

CRA(Chinese Room Argument,中文房间争论)思想实验,是约翰·希尔勒在1980年发表的题为《Minds, Brains, and Programs(心智、大脑和程序)》(参考资料[5])文章中首先提出的,1984年又在题为《Minds, Brains, and Science(心智、大脑和科学)》(参考资料[6])一书中论证。

【在MBP中,希尔勒如何描述CRA的?】

在1980年《心智、大脑和程序》(MBP)一文中,希尔勒认为:绝不可能仅仅通过遵循任何计算机程序规定的程序而产生对一个中文故事的理解(西方许多人认为中文就像天书一样难以理解,如果他认为你的话难以理解,就会说:你说的简直就是中文!)。

在MBP文章中希尔勒提供了第一人称的故事,概述了他如何实例化这样的程序,并充当计算机的中央处理单元(CPU),产生正确的内部和外部状态转换,通过懂中文的图灵测试,但他一个中文单词也不懂。希尔勒描述了这样一种“希尔勒即CPU”的情况:他被锁在一个房间里,拿着一大堆他不懂的中文论文。事实上,单语种的希尔勒甚至不知道这些符号是中文,有别于日文或毫无意义的图案。随后,希尔勒得到了第二批中文符号,以及一组规则(英语),这些规则描述了一种有效的方法(算法),用于将第二批符号与第一批符号关联起来,仅通过它们的形式或形状。最后,“希尔勒即CPU”被赋予了第三批中文符号和另一组规则(英语),使他能够将第三批与前两批关联起来,这些规则指导他如何根据给定的符号返回某些形状(中文符号)。希尔勒不知道,房间外的人把第一批中文符号叫做“剧本”,第二组叫做“故事”,第三组叫做“关于故事的问题”,他返回的符号叫做“关于故事的问题的答案”。他遵守的一套规则被称为“程序”。为了使事情进一步复杂化,房间外的人也用英语给“希尔勒即CPU”讲故事,并用英语问他关于这些故事的问题,他可以用英语回答。过了一段时间,“希尔勒即CPU”变得如此擅长遵循指令,“局外人”也变得如此擅长提供他必须遵循的规则,以至于他对中文符号问题的答案与真正的中国人可能给出的答案不可区分。从外部来看,这两组问题的答案,一个用英语,另一个用中文,都是一样好的;希尔勒,在中文房间,已经通过了图灵测试。然而,在中文案例中,希尔勒的行为“像一台计算机”,既不理解所给他提出的问题,也不理解他所返回的答案,而在英语案例中,他是这样做的。

希尔勒批驳了强人工智能的观点,认为:一个程序不可能给计算机一个“思想”、“理解”或“意识”,不管这个程序有多聪明或有多像人。

【在MBS中,希尔勒如何描述CRA”的?】

1984年《心智、大脑和科学》(MBS)一书中希尔勒强调说:总之,心智不仅仅是一种语法,它还有一种语义。没有一个计算机程序能成为一个心智的原因,只是因为一个计算机程序只是语法上的,而心智不仅仅是语法上的,心智是语义的,从某种意义上说,它们不仅仅是一种形式结构,而是一种内容。

为了说明这一点,希尔勒这样介绍他设计的思维实验:想象一下,一群计算机程序员编写了一个程序,可以让计算机模拟对中文的理解。因此,例如,如果给计算机一个中文问题,它将把这个问题与它的内存或数据库相匹配,并对这些问题用中文给出适当的答案。为了争论的目的,假设计算机的答案和母语为汉语的人一样好。那么,希尔勒问:“程序是真的理解中文,还是只是具有模仿理解中文的能力?”计算机是否真的理解中文,就像说汉语的人一样理解中文?

希尔勒说:好吧,想象一下你被锁在一个房间里,这个房间里有几个装满中文符号的篮子。想象一下,你连一个中文单词也不懂,但你有一本用英文书写的规则书来操纵这些中文符号。这些规则规定的符号的操作,纯粹是形式化的,按照它们的语法而不是语义。所以规则可能会说:“从一号篮子里拿出一个笔迹符号,放在二号篮子里另一个笔迹的符号旁边”。现在假设其他一些中文符号被传递到房间里,你会得到进一步的规则,从房间里传回来中文符号。

假设你不知道传给房间的符号被房间外面的人称为“问题”,而你从房间里传回来的符号被称为“问题的答案”。再者,假设程序员非常擅长设计程序,而且你非常擅长操纵符号,很快你的答案就与母语为汉语的人的答案无法区分了。

在那里,你被锁在你的房间里,为回应输入的中文符号而挪动、递送中文符号。根据所描述的情况,你不可能仅仅通过操纵这些形式符号来学习任何汉语。现在,故事的重点很简单:通过从外部观察者的角度执行一个正式的计算机程序,你的行为就好像你懂中文一样,但你一个中文字也不懂。如果通过适当的计算机程序不能够以让你理解中文,那么就不能够以让任何其他的数字计算机理解中文。

希尔勒认为,如果计算机不理解对话的内容,那么它就不是在思考,因此它不具有聪明的心智。希尔勒阐述了被称为强人工智能的哲学立场,即:正确编程的计算机实际上是有心智,从这个意义上说,只要有正确的程序,计算机就可以有理解,并有其他的认知状态。基于他的中文房间的实验,希尔勒得出结论,具有心智的强人工智能是不可能的。

【强人工智能与弱人工智能】

有趣的是:计算机科学家艾伦·图灵提出“模仿游戏(即图灵测试)”的论文CMI名称,是以“计算机器”打头,测试的是计算机器模仿人类智能的能力;而哲学家约翰·希尔勒用提出“中文房间争论”的论文MBP名称以“心智”打头,争辩的是机器的心智(理解)能力。应该说,在20世纪50-80年代,哲学家比计算机科学家对有关机器的心智、意识、思维等问题,更感兴趣。

图灵在CMI中也涉及了他对一个古老问题的看法:“机器能思考吗?” ——实际上,他认为这个问题“毫无意义,不值得讨论”。他建议用一个简单的(行为)测试来代替这个问题这个测试他称之为“模仿游戏”。这种人工智能的经验测试,颇适合于致力在计算机上实现人工智能的计算机科学家的胃口——人工智能作为计算机科学中的一个分支,其目标应该是致力于创造像人类一样智能的计算机或机器。

希尔勒在MBS第26页,有这么一段话:

哲学、心理学和人工智能的主流观点强调人脑的功能和数字计算机的功能之间的相似性。根据这一观点的最极端版本,大脑只是一台数字计算机和心智只是一个计算机程序。可以一句话总结这一观点——我称之为“强人工智能”或“强AI”——就是说,心智对大脑,就像程序对计算机硬件一样。

这可能是较早采用“强人工智能”术语。希尔勒说,根据强人工智能,“计算机不仅仅是研究大脑的工具,更确切地说,经过适当编程的计算机实际上是一种心智。在某种意义上,给予正确程序的计算机,确实可说具备理解和其他认知状态”。许多哲学家和人工智能学家都认为这种观点是错误的。英国数学物理学家罗杰·彭罗斯也确信大脑不仅仅是一个计算器官。彭罗斯在其著作《皇帝的新脑》(参考资料[7])和《心智的阴影》(参考资料[8])中断言:意识是无法计算的,并推测大脑中的某种量子过程执行了超越图灵机器能力的非算法性工作。

强人工智能是用来描述人工智能发展具有某种思维方式的一个术语。强人工智能(Strong artificial intelligence,简称Strong AI)是一种人工智能结构,具有模拟人脑的心理能力和功能。在强人工智能的哲学中,即人工智能软件完全模仿人脑的行为,与人类的行为(包括理解力甚至意识力)没有本质区别。强大的人工智能也被称为全人工智能。强人工智能更多的是一种哲学,而不是创造人工智能的实际方法。这是一种对人工智能的不同看法,它把人工智能等同于人类。它规定计算机可以被编程成一个真正的人类大脑,在每个词的意义上都是智能的,有感知、信念和其他通常只属于人类的认知状态。然而,由于人类甚至无法正确地定义什么是智能,因此很难给出一个明确的标准,即什么才算是发展强人工智能的成功。另一方面,弱人工智能(Weak artificial intelligence,简称Weak AI)是一种研究和开发人工智能的方法,它考虑到人工智能是并将永远是人类认知功能的模拟,计算机只能在任何意义上看起来像在思考,但实际上并不是有意识的。弱人工智能不是试图完全模仿人类的思维,而是专注于开发与特定任务或研究领域相关的智能。弱人工智能是可以实现的,因为它规定了什么是智能。

强人工智能的目标是使人工智能机器的智力在功能上等同于人类。聊天机器人和强人工智能的真正例子有根本的区别。聊天机器人是专门为对话而构建的,使用复杂的算法和响应数据库来确定对查询或语句的适当回复。它们是应用人工智能的一个例子,系统是专门为一种用途而构建的。然而,理想的强大工智能机器将具有与人相同的感官感知,并经历与人类儿童相同的教育和学习过程。从本质上讲,机器将作为一个孩子“出生”,并最终以类似于人类发展的方式发展为一个成年人。

【智能机器如何思考】

在图灵测试提出50年后,人工智能在各种各样的 “模仿游戏”或人机对决中,有多次出乎意外的表现。在过去十年中,出现了能够模拟各种各样类似人类行为的计算机程序,甚至比人类做得更好。

2011年2月14日至16日,IBM “沃森”(Watson)超级电脑在智力竞猜电视节目《危险边缘(Jeopardy!)》中,与该节目历史上两位最成功的选手肯詹宁斯和布拉德鲁特对决,前两轮中与对手打平,而在最后一轮里,沃森获胜,成为《危险边缘》节目新的王者,并赢得了第一笔奖金100万美元。该比赛以一种问答形式进行,问题设置的涵盖面非常广泛,涉及到历史、文学、艺术、流行文化、科技、体育、地理、文字游戏等等各个领域。根据提供的各种线索,参赛者必须以问题的形式,做出简短正确的回应。在沃森分析问题线索并确定最佳解答的过程中,运用了先进的自然语言处理、信息检索、知识表达和推理和机器学习技术。

2016年3月9日-15日,谷歌AlphaGo以总比分4比1战胜世界顶级围棋棋手李世石。AlphaGo是由一家私营公司DeepMind的大约20人创建的,采用了如蒙特卡罗树搜索、评估函数、强化学习和深度神经网络等技术。后来AlphaGo团队又在20个月内,开发了另一个版本的程序AlphaGo Zero。2017年10月19日,在国际学术期刊《自然》(Nature)上发表的研究论文中报道,AlphaGo Zero从空白状态学起,在无任何人类输入的条件下,自学围棋,并以100:0的战绩击败“前辈” AlphaGo 。DeepMind创始人兼首席执行官戴米斯•哈萨比斯称“它不像人下棋,也不像像程序下棋,它以第三种方式,几乎是外星人方式下棋。” 这在一定程度上要归功于人工神经网络的进步,人工神经网络是AlphaGo的技术基础,也是过去10年的研究热点。

现在这些人工神经网络不仅会玩游戏,还能够驾驶汽车,识别照片中的图像、识别口语语音,其水平可以与人类媲美。

在这些过程中,机器是如何思考的?MIT出版社在2018年出版了谷歌前工程专家、机器学习博士肖恩·格里什(Sean Gerrish)著的《HOW SMART MACHINES THINK》(参考资料[9]),有广泛的讨论。此书中文版《智能机器如何思考:深度神经网络的秘密》已经由中信出版社出版。这本书没有谈论太多的哲学问题,重点在人工智能是如何工作的,解读了一些使得现在机器显得具有如此智能的背后的算法。例如,自动驾驶汽车如何能够感知周围环境,识别道路、躲避障碍物、在十字路口避让、处理交通堵塞、换车道、找停车位等。神经网络如何识别图像中的物体,击败李世石的AlphaGo和在智力问答战胜人类冠军的沃森计算机如何玩游戏。

这本书在中文版,加了个副题“深度网络的秘密”,似乎在暗示机器学习和深度神经网络是智能机器如何思考的秘密所在。的确,无论是自动驾驶、机器下棋,还是理解自然语言,其背后实现途径都是机器学习和神经网络。下图是摘自此书的百度深度语音识别系统架构(英文版第162页图11.2)。

image.png

百度深度语音识别系统架构(《智能机器如何思考》一书图11.2)

微软首席技术官凯文·斯科特在这本书序言中指出,“鉴于当前围绕机器学习和人工智能的对话颇为活跃,…这本书将成为引导你理解底层技术的理想方法,它可以帮助你更好地判断哪些言论值得相信,哪些说的天花乱坠的谬论应该被抛弃”。在此书的第13章有一节标题为WAS WATSON INTELLIGENT(沃森有“智能”吗?),其中说到(原文第218页):

沃森回答《危险边缘》问题的能力是否表明它真的具有智能?答案与这本书其它机器是一样的:不见得(原文是not really)——至少如果我们把它和人类的智力相比较是如此。为了理解原因,让我们回想一下在给出一个线索时沃森是如何找到正确答案的。沃森的第一步是用人类创造的各种规则来梳理线索。它创建了一个句型图,并使用人工编制的规则提取和标记用于回答线索的关键信息位。随后沃森利用这些信息用搜索引擎搜索正确答案,利用结果创建了候选答案列表,然后对候选答案进行过滤,并搜索更多的证据来支持每个候选答案。在这之后,它对收集到的证据进行打分,然后通过一系列的转换和分类器选择最佳的候选答案。

然而,在这流程的任何一点上,沃森都没有真正理解这条线索在问什么。它简单地遵循一系列确定的步骤,检查问题并用从数据中获得的人工规则和权重对支持证据进行评分。

这本书在最后讨论WHERE WE GO NEXT在谈论未来时候,指出(原文第281页):

首先,我们在未来创建的自动机将始终遵循程序。…一些哲学家认为这表明机器永远不会思考。我个人的信念是,人类也是机器,我们是模拟机器,如果我们相信人类可以思考,那么就没有什么可以阻止我们将来设计出的数字计算机也会思考。相反,我们的机器总有一天会思考,这是不可避免的,它们会发展情感、观点和自我保护的愿望,而这些都会在某一天会与我们自己的冲突。

第二,我们将继续制造能够越来越精确地复制我们的智力和行为的机器,直到它们的感知和推理能力与我们自己做这些事情的能力之间没有明显的区别——只是机器在很多方面会比我们好。…

【ANI、AGI和ASI】

弱人工智能也称ANI(Artificial Narrow Intelligence)或人工窄智能,是能够用智能方式来完成特定任务,不能超越其领域或局限性,因为它只针对一个特定任务进行训练。如今,ANI在我们社会里处处可见。例如,谷歌如何对页面进行排名,亚马逊知道我们喜欢什么,Siri聊天等机器人,下棋、电子商务网站的购买建议、自动驾驶汽车、语音识别和图像识别。按照希尔勒观点,弱人工智能计算机只是模拟心智,它们看似理解不是真实的理解(就如同是),计算机处于可以智能地运行,但不一定能理解的状态。

强人工智能可以再分成两类: 一是AGI(Artificial General Intelligence)或人工通用智能(也有人译为通用人工智能),可以像人类一样高效地完成任何智力任务的智能,也就是说,人工智能模仿人类智能和/或行为的能力与人类无法区分。大多数专家相信AGI是可能的。AGI背后的想法,使这样一个系统更智能,具备人类的心智能力,例如,思考、推理、计划、解决问题、抽象思维、理解概念、从经验中学习,在没有任何外部帮助的情况下进行活动。目前,还没有这样的系统可以归入AGI的范畴,可以完成任何像人类一样完美的任务。由于具有通用人工智能的系统仍在研究中,开发此类系统需要大量的努力和时间。二是ASI(Artificial Super Intelligence)或人工超级智能(也有人译为超级人工智能),是机器智能水平可以超越人类的智能,不是模仿人类的智力和/或行为,而比具有认知特性的人类更好地执行任何任务。ASI的一些关键特征包括:思考能力、推理能力、解谜能力、判断能力、计划能力、学习能力和沟通能力。ASI仍然是人工智能的一个假设概念。

问题的本质是:计算机是否真的可以有一个心智(强人工智能)或只能模拟一个心智(弱人工智能)。这一区别对于讨论意识概念的哲学家来说更为重要。实际上,这与计算机科学家无太大关系。如果程序表现得像是智能的,计算机科学家就实现了他们的目标。因为我们自己并不真正理解为什么人类是有意识的,或者意识的细节,所以很难预测我们是否或何时会获得强人工智能。许多人相信,一旦强大的人工智能成为现实,我们将很快经历一次智能爆炸,这将促成一个技术奇点。

在一段时间里,强人工智能主要是哲学家的议题,现在许多计算机科学家,才开始探索强人工智能实现问题。 由于神经科学的重大进展,我们正处于对大脑如何实现意识的科学理解的边缘。卡内基梅隆大学计算机科学教授曼纽尔·布卢姆2018年10月17日在加州大学伯克利分校做的 ACM 图灵奖荣誉获得者演讲,标题是《走向有意识的人工智能:一个由神经科学启发的计算机体系结构》,就讨论了他称之为有意识图灵机(Conscious TM,CTM)或有意识人工智能(Conscious AI,CAI)模型。

强人工智能还有很长的路要走。对于未来AGI和ASI什么时候会诞生,有不同的预测,从几十年甚至几百年不等。但是现在越来越多的新闻中已经有关于人工智能是否会接管世界的争论:我们是不是在用定时炸弹?一个邪恶的ASI会统治世界吗?这里,我们介绍文森特•穆勒(欧洲认知系统、机器人和交互网络协调员)和尼克•文森特穆勒(牛津大学)做的未来人工智能进展专家调查(参考文献[10])结果,其摘要如下:

在某些方面,人们对未来几十年内出现的高水平机器智能和人工超级智能深表担忧,这给人类带来了巨大的风险;在其他方面,这些问题被忽视或被视为科学问题。我们想澄清的是,意见的实际分布是什么,目前最好的专家选定的给在特定时间框架内出现的高水平机器智能的概率是多少,他们在这种发展中看到的风险是什么,以及他们看到这些发展的速度有多快。因此,我们设计了一份简短的问卷,并将其分发给四组专家。总的来说,研究结果表明,专家们一致认为,人工智能系统可能在2040-2050年左右达到人类的整体能力,并在此后不到30年内转向超级智能。专家们说,这种发展结果对人类“有害”或“极其有害”的可能性约为三分之一。

那么,按照这个调查预测,AGI(人工通用智能)将于在2040-2050年左右诞生,而ASI(人工超智能)将可能在2070-2080年左右诞生。

image.png

人工智能发展预测示意图

【结语】

自从1950年艾伦·图灵的CTI(《计算机器和智能》)论文发表以来,人工智能有了很大发展(其间有过高潮,也经历过寒冬),我们现在处于人工智能快速发展的新时代。对于人工智能的发展,一直有人为之着迷,也有人为之焦虑。埃伦·马斯克认为“人工智能可能比最聪明的人还要聪明”。 史蒂芬·霍金相信人工智能“可能意味着人类的终结”。如果你就如何看待机器思考问题询问不同领域专家,可能每个人的答案都会不同。国外有一家网站https://www.edge.org,其旗下汇集了一批世界顶尖的科学家和思想家,每年就同一话题进行跨学科讨论。2015年的大问题是《What to Think About Machines That Think》,约请了190位世界顶尖的科学家和思想家来回答这个“大问题”:你对会思考的机器有什么看法?约翰·布罗克曼将专家们的回答编辑成书(中文版的图书名称是《如何思考会思考的机器》,已经由浙江人民出版社出版发行,参考资料[11])。专家们的回答各不相同,英文原文的回答可以在如下网址得到:

https://www.edge.org/annual-question/what-do-you-think-about-machines-that-think

对于这个问题,我想强调的是,智能机器的思维方式和人类思维是不一样的。人类的智能只是各种不同的智能中的一种。不是所有的智能都得跟我们人类的智能一模一样。实际上,发展人工智能也出现有不同范式,例如,逻辑智能(命题逻辑和一阶谓词逻辑)、概率智能(贝叶斯定理和贝叶斯网络)、计算智能(遗传算法和进化计算)、神经智能(机器学习和深度学习)、量子智能(量子计算和量子机器学习)等。

顺便说,有人认为术语“人工智能”是造成人工智能领域许多混淆的来源。“人工智能”由“人工”和“智能”两个词组成,人工是指“人造的”,智能是指“思维能力”,所以人工智能有“人造的思维能力” 的意思。但是,“人工”智能可能被解释为真实智能的反义。对于许多现象,你都可以区分真假——假是不真实的。你也可以区分自然和人工——自然界中的自然手段和人为手段,如天然钻石与人工钻石——而人工合成的钻石被认为是假钻石。可是,智力是不同的:你不能拥有假智力——如果智能体的行为是智能的,那么它就是智能的。因此,如果计算机能够模仿人类智能,人工智能一旦实现,也应该认为是人工创造的真正智能。这种由行为定义的智力概念,可能是图灵设计被称为“图灵测试”的智力测试的动机之一。

另外,术语“弱人工智能”一词也可能会让人觉得这些应用是无用的,但我们迄今为止创建的所有人工智能,都可以归类为弱人工智能。弱人工智能实际上可能是最有用的人工智能类型。毕竟,我们现在只希望汽车具备自动驾驶能力,不需要让汽车思考人生的意义;我们现在只希望家用机器人为我们做家务,也不想让它学会讨厌我们。不过,我们应该努力追求更高水平的机器智能和人工超级智能,正如MIT的Quest for intelligence网站(https://quest.mit.edu/)所说的:

l  想象一下,如果人工智能的下一个突破来自于智能之源本身——人脑。

l  想象一下,如果人工智能在社会和情感上都足够聪明,使每个人都能蓬勃发展——从个人到社会。

l  想象一下,如果机器学习能彻底改变疾病的检测、预防和治疗。

l  想象一下,如果我们制造出一台能像一个人那样能成长智力的机器,就像一个婴儿一样开始,像一个孩子一样学习。

l  想象一下,我们可以从跨组织的数据聚合中获得洞察力和社会效益。现在想象一下,我们可以在尊重隐私的同时做到这一点。

参考资料

[1] A.M. Turing.  Computing machinery and intelligence. Mind, New Series, Vol. 59, No. 236 , pp. 433-460. Oct., 1950.

[2] The Annotated Turing. A Guided Tour through Alan Turing's Historic Paper on Computability and the Turing Machine. by Charles Petzold. Wiley Publishing, Inc.2008.

[3]The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life: Plus The Secrets of Enigma. Edited by B. Jack Copeland, OXFORD UNIVERSITY PRESS. 2004

[4] Alan Turing: HIS WORK AND IMPACT. Edited by S. BARRY COOPER and JAN VAN LEEUWEN. Elsevier. 2013.

[5] J.R.Searle. Minds, brains, and programs. Behav. Brain Sci. 3, 417–424. Cambridge University Press, Cambridge, UK. 1980.

[6] J.R.Searle. Minds, Brains, and Science, Harvard University Press. 1984.

[7] Penrose, Roger. The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford University Press, 1989.

[8] Penrose, Roger. Shadows of the Mind. A Search for the Missing Science of Consciousness: OXFORD UNIVERSITY PRESS. 1994.

[9] Sean Gerrish. HOW SMART MACHINES THINK. The MIT Press. 2018. 中文版:〔美〕肖恩·格里什. 《智能机器如何思考》.中信出版社. 2019.

[10] Vincent C. Muller. Nick Bostrom. Future Progress in Artificial Intelligence: A Poll Among Experts . AI MATTERS, VOLUME 1, ISSUE 1. AUGUST 2014.

[11] 约翰·布罗克曼. 《如何思考会思考的机器》. 浙江人民出版社. 201

转载本文请联系原作者获取授权,同时请注明本文来自王宏琳科学网博客。

链接地址:https://wap.sciencenet.cn/blog-3005681-1198705.html?mobile=1

收藏

分享到:

当前推荐数:7
推荐到博客首页
网友评论4 条评论
确定删除指定的回复吗?
确定删除本博文吗?