应行仁
人类能否理解机器的智能? 精选
2016-3-21 07:57
阅读:11069
标签:人工智能, 神经网络, 自由意志, 人机大赛

AlphaGo与李世石的围棋大赛让民众对人工智能又关注起来,除了专家看门道,棋迷看妙着外,看热闹的其实就关心:以后愈来愈聪明的机器人会不会骑在我们头上?那歪着脖子能想通宇宙之莫测的霍金,深谋远虑地说,怕这白眼狼养不熟,还是趁早给灭了!

高人长考之深,凡人难追,不过连专司杀人也会毁灭人类的原子弹、生化武器现在都难禁,遑论去阻止已开始渗入生活,让人舒适省心智能服务的研究进步。所以还是想些靠谱的事:到底我们能不能理解机器的智能?能理解就好办,至少会好沟通。

四五十年前,专家系统的AI时代,其实人们早问过这问题。专家们都很淡定:符号主义的机器是按规则行事,其智能不外是在人赋予的知识内逻辑推理,不会有违和之事。机器不管多聪明,一切举动皆在人类可以理解的范围。给机器立规矩,写些最高指示之类就不用担心了。过去科幻谈到机器人的自我觉醒,都要借助于离谱的短路,或者内置上帝的骰子让它便宜行事。这等奇事不用想就知道是没边了,大家娱乐后都安心洗洗睡了。

现在有点不同了,用的是深度学习来训练人工神经网络作为机器大脑,让它自己积累经验,居然打败了围棋九段天才。虽然现在还需要人类帮助构建先天的联接拓扑和指导训练,但不难想象今后具有更快更大容量,能在互联网中攫取数据自学成才,在实践中积累出比人类经验更高的智能。这种联结主义机器的脑子是个黑箱,它是怎么想的,知道些什么,为什么会这样想,我们都无法了解和控制。

有计算机教授对此嗤之以鼻,认为这种“似是而非的议论和评论,是误导,是最误人的”。他在报刊上作为专家,从计算机科学角度已评论过,说这没有所谓的“人机大战”,只有开发团队集人类之智慧,写了程序对李世石的围殴,这比赛胜的不是机器!无奈许多人还很愚顽,认为开发团队教会机器孩子,孩儿打败李世石,赞老师应该的,但怎么不认机器孩儿有智能?他又写篇文章,说程序员清晰地、准确地给出计算过程,没什么不可掌控的。那只是傀儡。

玩神经网络的人辩解说:能掌控个啥呀?联接主义的AI机器,它的功能是由联结参数决定的,这些联结参数不是设计者给的,而是通过对样本(数据)的学习,机器自动调整形成的。你即使拆开硬件,企图分析这具有亿万个联结的数据也无济于事呀!

教授先问说这话的,“是否计算机科学科班出身?是否了解可计算性理论?”他从理论角度高屋建瓴地再问:“一,这所谓的‘联结主义的AI’,最终是否在现代通用电子数字计算机上执行才能获得结果?二,你所谓的‘样本数据’,是集合论意义上有穷的还是无穷的?”

这是哪跟哪呀!一般人估计听了可能会懵圈,我帮助解读一下吧。他意思说:有限的(样本)数据在与图灵机等价的现在计算机上,学习只能产出有限的确定性的结果。我们开发团队,编程序,知道训练过程和样本,那么理论上也知道了训练后机器所有的权重参数。机器与人博弈,机器的功能是具有这些参数的确定函数,理论上也是确定的。所以理论上我们能够了解机器的表现,所以别给我谈什么黑箱,无法理解之类的,那是没文化!

他觉得了然于胸的是,要让机器具有人类不能理解,鬼神莫测的智能,在机器里至少得有个“上帝的骰子”来玩随机。所以写的文章题目叫《现代通用电子数字计算机掷不出“上帝的骰子”》,在那里掷地有声地告诉大家:“计算机科学中的一个基本常识是程序产生不出真正的随机数,掷不出!”

大家无语了,这玩计算机的都知道呀!随机函数程序产生的都是伪随机数,理论上是一个确定函数的值。人工神经网络机器的功能也是如此,这又怎么啦?

对于机器,就算你知道所有的参数和那个代表着它输出功能的函数,它与你对奕时,你下一招,理论上确能算出它的对招。可是那函数里有至少几亿个参数哎,让你长考一小时,你算得过来吗?与它过招时,你,包括开发团队知道它具体怎么应对?能够预测出它下的招吗?

你可能说,至少理论上是如此吧。这思想叫机械决定论,早被扔进历史垃圾堆里去了。依这说法,人也是机器,因为人是有限的物质构成的,一切运行皆有规律,理论上他的一切行为都是确定的。掷骰子,实际上也不能产生随机结果,因为理论上知道了骰子的物理性质,初始条件,掷的力,按力学定律就能算出哪个面朝上。充分了解,假以时间,一切都算得出来。

只不过简单的三体运动,就让这决定论的说道,在现实中毫无意义。按力学知识,我们知道三体是怎么运动的,能精确地列出运动方程,理论上我们可以准确知道它们的轨迹,但实际上难以计算,也没有意义这样算。因为稍有微扰,结果面目全非。神经网络学习形成参数也是如此。这类理论上确定实践上难以确定的现象叫混沌(Chaos)。人之所以表现出有“自由意志”是它在大脑的功效。联结主义AI也是如此,它是一个在我们掌控能力之外的功能。在实践上我们对它的行为难以确定,不受控制。

有人问:机器学习输入人类经验的样本,AI机器不就是根据问题,搜索这些经验库推理回答,这跟符号主义的专家系统有什么不同?这是不明白什么是联结主义机器的学习,这儿不是像符号主义AI那种搜索经验、推理回答。神经网络在学习中,自行消化样本,从中抽象出相似的模式,化成联结的参数,在应用阶段是由这些参数确定的函数,表现出模式识别的功能来回答问题。它与动物的本能相似,是按联想方式工作的。所以它能产生“直觉”,得出样本之外的新知识。这在80年代的神经网络复兴的研究中,被称为从样本中“涌现”出来性质,神经网络拥有的是这样的智能。符号主义的智能,不能得出输入知识库逻辑之外的新知识,如果库中有不相容的知识,那结果就乱套了。而神经网络的学习,少量的样本,联想很丰富,比较“想当然”,更多正确的样本,加强了正确的识别,纠正了少数可能错误的样本,结果就越精准。就像人类经验越丰富就越少出错。机器能够吸收积累比人多得多的经验,“瞑想”也快得多。

这么说,对高智能的联结主义机器,如同老贼近乎妖,我们就不能理解了?

那也未必。只不过我们难以用理性来分析。

人脑中有150-200亿个神经元,每个神经元有几千个联结。2015年谷歌最大的人工神经网络有112亿个参数,世界最高Digital Reasoning的有160亿,数量与人脑相比还差几千倍。实现的只是人类智力的某项功能,离综合智能还很远。生物在复杂的环境变化,残酷的竞争压力下进化,没有一定正确的方向,没有必胜的策略,也没有涵盖一切无往不胜的智能。就像万物之灵的人类不如动物对灾难敏感,蟑螂老鼠对环境比人更能适应。它们都有人类所不及的某种智能。人类也有许多不同于理性思维的感性智能。在生存竞争的这个大棋局中,有限可调参数的智能个体或群体,注定无法涵盖近乎无限的博弈变数。所以只有在某方面相较的特长和聪慧,没有在一切都是优越的智能。霍金不是也受保健护士控制,爱因斯坦引以自豪的小提琴拉得也不怎么样,在赌场大杀四方记忆超强的雨人被平庸的哥哥带得团团转。有些专家学有所长,但常人一听都懂的含义,却闹不明白,喋喋不休,缺的是理解语言交流常识的智能。

几个高智商的理工男在争论,心中的女神钟意于谁?从家境,成绩,性格,人品,志向,兴趣爱好罗列了一系列条件,按柏拉图、弗洛伊德到马斯洛各种理论,分析推理,无不显现客观和严谨的高超理性,仍然得不出结果。路过一个美眉,听后笑道,“有没有情意怎么会不知道?俺们文科的从来不推理,俺们直接看眼神。”

也许对超级聪明的机器人,也没那么难懂。只是我们必须学会“看眼神”。


相关专题:世纪人机大战:李世石 VS AlphaGo

转载本文请联系原作者获取授权,同时请注明本文来自应行仁科学网博客。

链接地址:https://wap.sciencenet.cn/blog-826653-963808.html?mobile=1

收藏

分享到:

当前推荐数:24
推荐到博客首页
网友评论57 条评论
确定删除指定的回复吗?
确定删除本博文吗?