应行仁
机器学习的认知模式
2018-8-13 08:40
阅读:35679
标签:人工智能, 机器学习, 理性, 经验

动物依靠本能与经验进行模式识别,这种在意识之外的辨识能力称为直觉。古人认为有着某种神秘机制的直觉联系,在看似随机的占卜中得到卦象,通过综合已知信息,依卦辞可以做出预测。在这过程中,只有解卦的推理是在可理解的意识层次,而核心的直觉环节,则在常人理解之外。这种难以理解的直觉和存在着误差的认知模式,被讲求理性的科学所排斥。

理性时代的辨识和预测,依赖于在意识层次上的逻辑求证。科学方法不外乎归纳和演绎。归纳是从已知的经验中寻找相符的规律,演绎则从确立的原理出发,依靠逻辑推导出涵盖对象的性质。科学的进步,从经验的归纳开始,走向可以进行演绎推理的理论体系,极大地推动了自然规律的发现和科技的进步。几百年来,抽象的概念,如时间、空间、力、粒子、波、场、能量等等,已经用因果关系的思想模式,建造成为不被质疑的真实,变成据以进一步想象推理的基石。归纳与演绎法在人类脑力可及的范围内相辅相成,其前提、过程和结论皆在人的意识监督之下,所得的结果能够想象,自洽而和谐,因此得以信赖。凡是不能在这科学体系中得到解释的机制,都被看作没有根据视为迷信。

人工智能的研究也走过从模仿感性辨识到理性演绎的道路。它在上世纪50年代,研究模拟动物应用经验方式的感知器(Perceptron),对输入数据学习分类实现联想推测。到了70年代,转轨到直接模仿人类的理性思维,以谓词逻辑进行运算和启发式搜索,根据科学知识资料作答。科学用因果关系构造了可以演绎推理的世界模型,几世纪来万众合力的研究已经累积起丰富的知识。人们曾经相信,在严谨的数理逻辑理论下,机器以其精确快捷的逻辑功能,依靠已有的科学知识,会突破人类推理能力的局限,超越人类智能。可惜,这曾经寄予的厚望只停留在实验室中。今日在市场应用中大放异彩的人工智能,依赖的不是规则下演绎的推理,而是用机器学习产生近乎直觉的智能。虽然机器学习的过程清晰,算法明确,结果有据可查,但参数演化如同卦象形成一般地复杂多变,巨量关系的计算犹如解卦似的难以深究。

给予一组样本,从选项中挑出一个最“合理”答案,这个类比判断的能力,作为人的智商来测量。它与拥有的知识无关,而是一种赖以学习知识的功能。学习算法通过计算机,模拟这种根据样本类比判断的功能,赋予了机器的智商。机器利用输入的样本数据,调整表示规律和分类的通用数学模型参数,汲取了样本中的知识,然后以调整好参数拥有了知识的模型作答。通常这些参数是以万计到百亿计的数量。虽然这通用数学模型很简单,却适用于各种辨识模式,足以涵盖复杂的预测和分类问题。这调整模型参数及应用模型的计算机制,在数学上都是精确有效的。但巨大数量的可变参数,难以把这简单结构数学模型的一个具体的辨识判断过程,解析成为像物理规律那样单纯过程的因果性机制,无法用简单逻辑推演的跟踪来获得理解。机器学习直接依赖于样本来寻找规律,类属归纳,但不像通常归纳法得出可供分析理解的结论,而是将训练的结果表示为机器所用的参数,越过可供人理解的中间环节,直接付诸于应用。在无数参数错综复杂相互影响的乱麻中,以直觉般犀利作出综合判断。这种学习机器的人工智能运作在人脑监督之外。

科学研究是否得到理性的辩护?

人类心智渐开,以因果关系想象万物运作的机制,希望在意识的层次能够通过逻辑来理解,这被认为是理性。机器学习的智能却渐渐走离我们理性的监督。这个直觉般的智能可信吗?这从样本得来的知识可靠吗?对此,我们先要了解在科学研究中习以为常,得以信赖的归纳和演绎法是否也得到理性的辩护?

我们从每天太阳从东升起,推测出明天太阳仍然是东方升起。英国哲学家休谟,曾经思考过这种归纳推理的理性根据。他说,理性的根据不外乎先验或经验的,我们不可能用先验的知识证明未知的和已知的会一致,因为只要想出一个(不一致的)事实,就在逻辑上否认了这种的一致性;我们也不能用过去使用归纳推理成功的经验,来证明它的可靠性,因为这是循环论证。已知的样本怎么能够反映未知的可能?你从一万只样本里归纳出天鹅是白色的,一只黑天鹅的出现,就粉碎了这个结论。所以当人们使用归纳法时,总是揣揣不安。

演绎推理貌似不然,被无数论文引用的原理,像真理一样的牢不可破,逻辑推理像钢铁机械般的坚实,基于理论演绎的科学进步提供了无可辩驳的证词,爱因斯坦更作出理论的逻辑推测胜过经验常识的范例。如今的研究,如果不在公认的理论框架里演绎,就上不了档次,就可能被质疑被忽略。然而,这些历史和现状也只是经验式的证据。我们同样无法证明,在逻辑上被引为大前提的原理,是先验的真理,事实上它只可能是经验的归纳;推理应用的条件总是一种忽略细节的近似,细节的差异可能导致完全不同的结论;逻辑在推理中也可能出现人们长期未能意识的错误。就像归纳推理一样,无数成功的经验和两三百年科学的发展不能成为论据,因此演绎推理也缺乏理性的根据!

欧几里德几何是演绎推理方法的奠基经典,它的公设曾被认为是不变的公理,演绎的结论都是唯一正确的真理。后来人们发现,其他的假设也有意义,由此演绎出不同结论的非欧几何也有真实之处。完全基于演绎推理的数学,已从绝对真理宝座退位,而被认为只是研究假设条件下逻辑自洽的理论,它仅仅是科学研究的工具,而不是独立于假设之外的真理。

最成功采用演绎推理认识世界的物理学,其基本原理也经历过几次变迁,并非是永恒不变的。亚里士多德是形式逻辑的创始人,他的万物原理认为运动是变化的过程,力是运动的原因。对自然提供一种直观统一的解释,在他的体系里,时空物体难以分割,位移是物体的变化。牛顿采用了不同解释世界的理论体系,在他那里,时间空间不依物质而独立存在,位移中的物体不再是一种变化,而是在绝对时空中独立不变的物质。他引入几个抽象概念,定义动量正比于位移变化,规定力与动量变化成线性关系,用微积分的数学工具,提供了比亚里士多德更精细的结论。爱因斯坦改变了与物质无关牛顿的绝对时空假定,动量和力也不再符合牛顿力学中的线性关系,以适光速测量实验。量子力学则模糊了我们已经信赖的波与粒子的真实,它进而修改我们已习惯了物理因果性的认知。近几十年来,现代各种新晋的物理理论,除了在数学上符合逻辑外,已经远离常人在几百年在科学熏陶下的想象和理解。用于演绎推理描述世界的基本原理,其实也像经验总结一样,每当新的事实出现随之修正。只不过用于演绎的理论体系,通过定义术语,规定测量,用数学建构规则,形成逻辑上自洽的庞大系统,人们只是不觉察这个缓慢的变化和其中的矛盾。人的信心建立在我们看到什么之上,而理论决定我们能够看到什么。但世界并非如此。科学理论的缺陷往往被人忽略了。

牛顿的微积分,让人们习惯了时空质量体积无限可分,应用微积分计算,在科学研究技术应用中成果斐然,但无限可分其实只是个便于计算的假设。“巴拿赫-塔斯基定理”证明了一个分球悖论,把一个球按特定的方法切成无数的碎片,通过旋转可以组装成一模一样的两个球。经过多年争论,人们确认它在数学上没问题,而是这样无限可分思想实验的推论不反映现实。

科学理论中许多基本假设,更不如经过几百年发展的物理坚实。具有严谨逻辑的博弈理论,是现代经济政治等社会科学的微观理论基础,自私理性人的假设是博弈研究的基石。1982年德国经济系古斯等教授对“最后通牒博弈”做了很多实验,这是一方提议,另一方表决瓜分100块钱的局势,同意按提议则按此分配,不同意则一拍两散,大家都一无所得。按博弈理论得出的结论将是提议方分99块,表决方得1块。实验证明没有这样的二百五,这时理性假设不灵,心理学更管用。

逆推法是很常用的逻辑推理方法。数学家、博弈理论学家、实验经济学先锋肯尼斯·宾默(Kenneth Binmore) 和数学家、博弈界大佬、2005 年诺贝尔经济学奖获得者罗伯特·奥曼(Robert Aumann),从1987年开始对“蜈蚣博弈(Centipede game)”能否采用逆推法展开激烈的争论,至今还没一个定论。这是一个适用于个人之间、公司之间、国家之间的博弈:和,则两利;贪,则两败。按照逆推法,两利的长期合作关系从一开始就无法达成。从理性的角度出发,得到看来很不理性的结果。从正常的心理思考,发现很不正常的心理。

哥德尔定理说:不存在着一个自洽的形式公理系统,能够有效地证明这里面所有的算术定理。这个系统的无矛盾性,也不可能在系统里被证明。波兰逻辑学家塔斯基(Tarski)在1931年送交了《形式化语言中的真理概念》论文,他从理论语义学或逻辑语义学角度研究形式语言,回答了类似哥德尔的问题。图灵的停机不可判定,与哥德尔不完备性定理等价,证明有些问题,机器不可能通过逻辑作出判断。所以不可能用逻辑演绎证明一切,基于规则推理的智能机器具有盲区。世界上众多基本原理相互间是矛盾的,这样才足以覆盖各种情况。人们往往没有意识到,引为推理根据的知识可能是矛盾的。我们信赖的归纳的演绎的据以描述世界的科学知识体系,要么有所局限要么互相矛盾。

我们为何认知世界?

既然归纳法和演绎法同样缺乏理性依据,机器学习更是不如,我们何以认知世界?

问题是认知世界为了什么?科学追求真理源于西方宗教的思想,认为存在着唯一正确的真理,生命的意义在于追求真理。对于宗教这很自然,不容置疑的真理已经记述在圣经中,剩下只是理解、见证和演绎。但对科学而言,理性只有先验和经验知识可凭,逻辑证明可依。既然先验之真不可考,经验归纳不可靠,任何认知模式希望得到追求真理式的理性认可,就是不可能的。休谟认为“如果理性沒有任何的依椐就能夠构成我们的思想、如果思想是从头到尾都是由理性所构成的,那么我们根本不可能会相信任何東西,包括了直覺或演绎得出的任何真相在內。”极致的理性追求只是一种宗教的向往。

为什么我们希望得到理性的认可?因为,在此之前人脑是唯一赖以推测和辨识的工具。推测判断经过因果性的逻辑追踪检查,引用认可的知识和简单的逻辑推理能够减少误判,能准确表达可在交流中纠错,最后因感觉自己想通了而心安。但逻辑追踪只能串行进行,人脑因长考能力的局限,必须借用已有的定式和结论来推理思考。因此科学在几百年间建立起一个庞大供以演绎推理的体系,人为建立了许多被看作是真实的概念,供我们来直观思考。但这科学知识体系只是能以较少错误成功有效地解释世界的一种系统。其他的经验解释,也许不能在这体系上得到很好解读无法直观想象,但也能有效地解决问题。

例如传统的电影推荐系统,将电影依戏剧片、喜剧片、动作片等类别和影星等作为特征属性,统计出各影片对这些属性的评级;然后依顾客对这些属性个人偏好的加权,推荐综合加权评级较高的商品。在这里,特征属性的选取,局限在理性可分析理解的意义上,对此人们感到科学可信的。而近年在KDD Cup和NETFLIX比赛中大出风头的矩阵分解推荐系统,同样基于属性分类的方法,但不再依赖人工选取的属性特征和统计评级,而是通过巨量的顾客购买记录和商品交易数据,用机器学习自动产生出商品的属性分类、赋值评级,以及顾客们的偏好;然后依顾客的购物历史,计算对这些特征属性的偏好加权,向顾客作出推荐。这个系统产生的属性分类,只是作为机器学习模型的参数变量,未必具有可以想象理解的明确含义,却比前者更有效,依赖人力更少。成绩斐然的深度学习与传统模式最大的不同,是学习中所用的特征属性也是由样本数据中自动产生,而非人为设计的。如果你想用逻辑推理追踪具体机器推荐的过程,你会困惑于那些没有科学解读含义的属性,就像见到阴阳五行解读那样难以接受,其实这不过是数学模型里合适的一组参数,与它们该怎么理解无关;如果属性有数以万计,人脑追踪则完全不可想象。虽然机器学习智能的判断,难以进行简单的因果性推演,但它训练和推断的算法,在数学上与其他科学推断一样的可信。

对机器学习的另一质疑是它的可靠性。确实,根据有限的样本,不可能有完美无误地的预测,无论样本的数量有多少,理论上它总是可能有误。尽管数学证明,供给足够多随机的样本数据让机器学习成功,它就有足够大的概率以足够小的误差作判断预测。但什么是足够多,怎么知道它们是足够随机,到底有多大概率多小误差?却是在具体实践中无法确知的,只在经验中可以比较。这与科学理论斩钉截铁的论断对比显得低弱。但是,科学的指导在实践上也经常出错,经济预测社会理论经常不靠谱,健康饮食科学建议年年在变,我们总是很宽容地把这归结为理论的误用。其实它在实践的效用,与机器学习识别的模式并无本质区别。

模式识别认知的智能是在生存竞争进化而来的,并非追求不可企及的绝对真理,而是为在现实中更有效用。从追求真理的角度,样本学习获取知识的机器学习并不可靠,用欧洲所有的天鹅作为样本,也不可能判别澳洲的黑天鹅,但在遇到黑天鹅之前,白天鹅的经验归纳大多是对的,在实践中有用的。机器的图像识别语音识别总有差错,围棋落子未必最优,但与人相比已经胜过,它在科技发展现实生活中带来的进步和便利,与物理和其他科学并无二致。理性是人类在意识层次上,理解因果关系的一种精神需要,而世上的真实与我们能否理解无关。机器学习由大量数据归纳形成由机器直接应用的复杂规律,必将越出我们逻辑思考的分析能力。它的发展倾向于脱离人类干预,更多地依赖硬件速度提高,容量增大,有效算法和数据的丰富。现在的机器学习还依赖于人来选取模型,算法和样本数据,然后交付机器自动运作,只是随着进步,人的参与会越来越少。这个进步就像我们从过去亲力亲为的生产者,上升为不再参与操作的管理者,最后将为自动工厂的拥有者。

面对人工智能,我们只有两种选择:因不能理解而排斥,或接纳这种无法透视但经验上有效的机器认知模式。

*此文曾发表在《中国计算机学会通讯》第13卷第6期(2017.6),文字略有修改。

转载本文请联系原作者获取授权,同时请注明本文来自应行仁科学网博客。

链接地址:https://wap.sciencenet.cn/blog-826653-1128904.html?mobile=1

收藏

分享到:

当前推荐数:19
推荐到博客首页
网友评论21 条评论
确定删除指定的回复吗?
确定删除本博文吗?