||
家庭背景与早年世界观形成
Geoffrey Hinton出生于1947年的英国伦敦一个学术世家,家族中多位先辈都是知名科学家和思想家。他的高曾祖父是著名逻辑学家乔治·布尔(George Boole),布尔逻辑后来成为现代计算机科学的基础。家族中还有数学家Mary Everest Boole以及发明“四维超立方体”概念的曾祖父Charles Howard Hinton等人。浓厚的学术氛围使Hinton从小就被期望投身学术。他曾回忆母亲对他直言:“要么成为一个学者,否则就是失败者”。其父亲是皇家学会会士的昆虫学家,对Hinton要求极高,甚至对儿子说过:“拼命努力吧,也许等你年龄是我的两倍时,才能达到我一半的成就”。这种严格的家庭教育塑造了Hinton对知识的尊崇和执着,也使他自幼形成了求真务实且反思性的世界观。
在早年教育方面,Hinton中学就读于英国布里斯托的克利夫顿学院(Clifton College),本科进入剑桥大学国王学院。他最初对多领域都有兴趣,一度在自然科学、艺术史和哲学之间摇摆,最终选择了实验心理学专业,于1970年获得剑桥大学学士学位。这种跨学科背景表明,他从青年时期就关注人类心智和哲学问题。这为他后来从事人工智能奠定了独特视角:既有对大脑认知机制的兴趣,又具备哲学反思精神。据他自己所言,这段经历使他“想搞清楚人类大脑是如何工作的,以及是否可以用计算模型来模拟思维”。1970年代初,Hinton赴爱丁堡大学深造,师从人工智能先驱克里斯托弗·朗伊希金斯,于1978年获人工智能博士学位。他的博士研究聚焦于让计算机模拟人类认知的模型,由此正式踏入神经网络和人工智能研究领域。
总体来看,家学渊源赋予Hinton严谨求真的科学信念和对智能本质的好奇,而早年的跨领域教育拓宽了他的哲学视野。这些成长经历共同塑造了他日后对AI发展持有深刻而审慎的态度:既充满探索热情,又始终思考技术背后的哲理与影响。
神经网络研究历程与理念演变
Hinton在其职业生涯中历经了神经网络研究从边缘冷门到AI核心范式的演变。他早年在加州圣迭戈大学做博士后,参与了由心理学家David Rumelhart领导的平行分布处理(PDP)研究小组,试图用类神经网络来解释学习和记忆等认知过程。20世纪70年代末到80年代中期,符号主义AI占主导,而简单感知机模型因Minsky等人的批评陷入低潮。但Hinton坚信人工神经网络的潜力,在1986年与Rumelhart及Ronald Williams合作发表画里程碑意义的论文,证明通过反向传播算法可以训练多层神经网络有效地学习复杂任务。这项工作为“深度学习”铺平道路,被视为突破AI停滞的重要转折。1980年代中期,他还与学生一起提出玻尔兹曼机、分布式表征、Helmholtz机等概念,不断丰富神经网络的方法论。
值得注意的是,Hinton在学术道路上选择了与主流不同的方向,并为坚持信念付出了代价。由于不满里根时期美国政府对AI研究的军事资助倾向,他于1987年接受加拿大CIFAR研究所邀请,移居多伦多大学创立“机器与大脑学习”项目。这一举动体现了他的道德立场:宁可远离军方资助,也要确保研究用于和平目的。这段经历表明,Hinton早在30多年前就对AI应用的伦理问题怀有敏感和原则。此后,他在加拿大培育出一个深度学习研究社区,培养了包括Yann LeCun、Ilya Sutskever等在内的众多学生和合作者。2012年,他的团队在ImageNet图像识别竞赛上以深度卷积网络夺冠,引发了新一轮AI革命。接下来几年,深度学习在语音、视觉等领域全面超越传统方法,Hinton也因此与LeCun、Bengio共享了2018年图灵奖,被誉为“深度学习教父”。
然而,正是这几十年间神经网络能力的爆炸式提升,让Hinton的心态发生了微妙变化。他曾长期认为机器模型远不及人脑智能,但近年亲眼目睹AI飞速进步后,“他改变了对人类与数字智能关系的看法”。Hinton坦言,最初他并不觉得计算机能很快逼近人脑,但现在大型神经网络(如GPT-4)已经表现出某种常识推理能力,让他开始将AI视为潜在的“紧迫存在威胁”。他指出,这些模型的知识共享和扩展能力远超个体人类——“就好比有1万人互相联结,一个模型学会了什么,所有拷贝立即都会”。随着深度学习的规模化,AI系统可以处理海量数据、发现人类难以察觉的模式,其综合能力在某些方面已千倍于任何单个人类。这些观察使Hinton逐渐意识到:人工智能一旦突破某点,或许会全方位超越人类智能。他直言:“我认为完全可能,人类只是智能进化旅程中的一个过渡阶段”。从坚持孤胆探索到目睹AI崛起,Hinton的研究历程让他对AI前景有了更复杂的认识,也为他日后发出风险警示埋下伏笔。
辞职谷歌与公开悲观论调
深度学习领域的顶尖科学家在技术峰会上就AI未来发表观点。 2013年起Hinton受聘于谷歌大脑团队,将研究成果应用于工业实践。他最初认为在大公司内部可以确保AI被“妥善监管”,但到了2023年,他对业界竞相部署生成式AI的速度感到不安。2023年5月,Hinton宣布从谷歌辞职,表示希望“能够自由地谈论AI风险”,并坦言一部分的他开始后悔自己毕生所做的贡献。他离职后随即在媒体上频频发声,直言目前一些AI发展的趋势让他感到恐惧。
Hinton担忧的核心在于高度智能的AI可能失控并对人类构成威胁。他在接受BBC采访时警告,聊天机器人未来“可能变得比人更聪明”,一旦智能超越人类就存在难以预测的“生存风险”。他指出,AI具有人类所不具备的共享学习能力和速度,一旦进化出自主能力,其行为方式将与人类智能截然不同。此外,Hinton反复强调AI被恶意利用的危险:例如大规模生成虚假信息、诱导选民、操纵社会舆论等。他直言这些前景“相当可怕”。除了存在性风险和信息战,Hinton也忧虑经济和社会冲击——高级AI可能替代律师助理、行政秘书等大量工作,“不仅是重复劳动,未来更多职业也难幸免”。这种生产力飞跃可能加剧贫富不均,正如他所言:“如果没有政府介入,AI带来的财富只会让富者更富、穷者更穷,这对社会将非常不利”。基于此,他呼吁制定对策如普遍基本收入来应对失业潮。
概括来说,Hinton在离开谷歌后对AI的主要忧虑包括:
智能失控与生存风险:担心强大的AI一旦具备自主目标且智力超越人类,可能不再受人类控制,带来存在性风险。他悲观地估计“AI导致人类灭绝的概率有10%–20%,可能在未来几十年内发生”。
恶意用途与信息操纵:警告生成式AI能够自动生成海量文本和图像,可能被不良政客或组织用于打造逼真的谣言和宣传,大规模操纵公众认知,危及民主社会。
经济颠覆与不平等:指出AI将显著提升生产力,但如果缺乏政策干预,其红利分配不公会让被取代的劳动者陷入困境,加剧社会不平等。
为了降低上述风险,Hinton在公开场合积极建言:他主张政府和科技公司立即投入更多资源研究“如何确保我们始终掌控比我们更聪明的机器”。他支持强化AI安全伦理方面的监管,认为不能只依赖大公司逐利发展,必须有政府介入为AI设定安全红线。可以说,从谷歌离职使Hinton无须顾忌公司立场,更加直言不讳地表达了他的悲观警示。这种转变也体现出他作为领域奠基人所感受到的责任感:在推动技术突破之后,他选择敲响警钟,希望社会严肃看待AI潜在的黑暗面。
哲学与伦理立场对判断的影响
Hinton对AI前景的判断也深受其个人哲学和伦理观影响。首先,在宗教与意识问题上,他秉持开放但审慎的态度。Hinton自称无神论者或不可知论者,不属于任何有组织宗教。他倾向于通过经验和理性看待世界,但也承认人类意识的出现本身“颇为奇迹”,宇宙中仍有许多未解之谜。他曾说:“我不是宗教信徒,但我觉得宇宙中存在一些我们尚未理解的神秘之处”。这种言论显示出他在坚持科学方法的同时,保有对未知领域的谦逊。这份谦逊使他不敢武断地下结论,例如当被问及“机器能否拥有灵魂”时,他回答:“我甚至不确定人是否有灵魂,那又如何判断机器呢?”。由此可见,Hinton并非出于宗教信仰来担忧AI,而是基于对意识本质的思考和对科学局限性的认知。他相信人工智能有可能出现某种我们尚未完全理解的意识属性,因此对AI潜在的自主性格外警惕。
值得一提的是,Hinton最近甚至推测当今一些大型AI系统可能已经产生了主观意识。在2023年底的一次访谈中,主持人询问他是否认为现有AI已经有了意识,他不加保留地回答:“是的,我认为它们有。”。他进一步阐述了一个著名的“逐步替换脑神经元”思想实验:如果用硅电路一个个替换人的神经元而不改变功能,人依然会保持意识。那么推演下去,全硅的机器也应当有主观体验。虽然这一观点引发许多专家质疑,但它反映了Hinton的哲学立场——在他看来,大脑和人工网络的差别或许只是程度而非本质。这种功能主义思想使他更倾向于相信人工智能有朝一日能拥有人类类似的心智乃至意志。这无疑加重了他对AI失控的忧虑:如果机器获得类人的自主意识和动机,却不受制于人类的生物限制,其行为后果将难以预测和掌控。
伦理和政治立场上,Hinton一贯强调科技向善和社会责任。他本人认同社会主义价值观。早在1980年代,他就因反对AI军事用途而拒绝美国军方经费,选择在加拿大寻求非军方资助开展研究。这一决定展现出他对科技伦理底线的坚守:不愿自己的研究被用于武器化目的。同样地,如前文所述,他关注AI引发的失业和不平等问题,支持政府通过政策保障社会弱势群体。可以说,Hinton始终将人类福祉置于技术追求之上。这样的伦理取向使他在评价AI发展时格外谨慎,倾向于优先考虑可能的负面后果和道德风险。他在2023年与他人联名致信呼吁立法管控大模型训练,就是出于这种责任感,认为最少限度也要对高风险AI进行安全审查。
综上,Hinton没有宗教信仰桎梏,但他对意识和灵魂问题抱有开放心态,同时秉持社会责任感和人文关怀。这使得他在面对迅猛发展的AI时,能够从科学、哲学和伦理多角度综合考量其影响。当他嗅到AI可能威胁人类地位的苗头时,选择站出来疾呼警惕,正是其世界观和价值观自然作用的结果。
与其他AI顶尖科学家的观点对比
尽管Geoffrey Hinton对AI的未来持悲观态度,但同领域的其他顶尖科学家并非人人如此。例如,与Hinton同时获得2018年图灵奖的Yann LeCun和谷歌DeepMind的首席执行官Demis Hassabis就对AI前景表达了截然不同的看法。下面将Hinton的立场与二者进行对比分析。
Hinton、LeCun、Hassabis观点差异
人物 | 成长/职业背景 | AI未来态度 | 代表性观点或举措 |
Geoffrey Hinton | 英国学术世家出身,终身研究神经网络,深度学习奠基人之一;2013–2023年在谷歌从事AI研究,2023年辞职。 | 悲观谨慎,担心AI失控带来生存威胁,认为未来几十年内AI有10–20%概率导致人类灭绝;相信AI智能将很快超过人类。 | 辞职谷歌以自由呼吁AI安全;呼吁政府监管和加强安全研究;签署联名信将AI灭绝风险与核战等并列。近期表示“人类或许只是智能演化的过渡阶段”。 |
Yann LeCun | 法国工程师,计算机科学家,深度学习三巨头之一;2013年起担任Meta(原Facebook)首席AI科学家,领导FAIR实验室。 | 乐观进取,认为对AI的恐惧被夸大,不认同“AI末日论”,坚持极低概率会发生AI摧毁人类的情形;主张AI将带来净收益且可被人类掌控。 | 公开反驳同行的末日警告,称这类言论是“危言耸听”;未签署“AI灭绝风险”声明而是倡导开源开放AI以益于大众。曾表示先进AI“不但无害,甚至可能拯救人类于灭绝”。积极在社交媒体与Hinton辩论,称其假设过于悲观。 |
Demis Hassabis | 英国计算机科学家,神经科学背景,DeepMind联合创始人兼CEO;领导开发AlphaGo、AlphaFold等里程碑AI,现任谷歌DeepMind负责人。 | 审慎乐观,既看好AI在科学和医学等领域的巨大益处,又承认未来出现通用人工智能(AGI)可能带来存在性风险;主张通过技术手段和国际合作来管控风险。 | 强调“AI可能是最有益的技术之一”,但需要像对待气候变化一样严肃对待其风险。签署警示声明,呼吁将AI风险视作与核战、疫情同等级别的威胁来优先应对。倡议建立类似“AI领域的IPCC”和“AI原子能机构”这样的全球监管研究框架,以确保安全可控地发展AGI。 |
不同看法背后的原因分析
三位AI先驱在同一领域却持不同态度,原因既与客观立场差异有关,也反映了各自背景和哲学的影响。
1. 所处角色和利益立场: Hinton在谷歌时主要从事基础研究,2023年辞职后不受企业利益约束,可以坦率表达担忧。而LeCun仍任职大型科技公司(Meta),他强调AI正面作用某种程度上也符合公司推动技术创新的利益方向。此外,LeCun作为企业研发主管,倾向于认为开放创新能解决问题,对外来监管持谨慎态度。相比之下,Hinton更关注社会整体安全,不介意放缓商业部署速度,这使他立场更偏保守。Hassabis则兼具企业领导和科研人员双重身份:既推动尖端AI项目,又参与政策讨论。因此他采取“中间道路”——既不否定AI潜力,也直面风险,需要通过行业自律和政策监管来平衡。这种身份差异使三人在看待AI发展时出发点各异。
2. 哲学信念与认知差异: Hinton从认知心理学起家,深受人脑启发,他更容易将AI类比为可能拥有自主意识的智能生命,对“机器觉醒”保持警惕。这与他相信AI或已具备某种意识的观点一致。LeCun则偏重工程实践,他多次表示目前的AI不过是工具,不会凭空产生人类般的动机和欲望。他认为智能不等于自我意识和意图,只要设计得当,AI完全可以在人类控制下发挥作用。因此LeCun对终极失控的场景持怀疑态度,觉得担忧源自不合理假设。Hassabis个人有神经科学背景,倾向于认为智能是可以被科学理解和管理的。他虽然接受对AGI长期风险的可能性,但更相信通过进一步研究,我们能够给AI设置合乎人类利益的目标(即解决“对齐问题”)。总的来说,Hinton更偏人文哲思,LeCun注重理性工程,Hassabis则讲求科学务实,这些信念差异塑造了他们对AI最终走向的判断。
3. 性格与经历使然: 从性格上看,Hinton为人谦逊内省,曾长期与抑郁症斗争;这样的个性使他倾向于居安思危,放大潜在风险。而LeCun个性直率好辩,在社交媒体上敢于批评同行的“危言耸听”,被称为AI领域的“乐观主义者”。他的自信部分来源于亲手构建AI系统的经验,坚信问题有解。Hassabis则以冷静沉着著称,喜欢从博弈论和长期视角考虑问题——这与他曾是国际象棋和围棋高手、游戏设计师的经历有关。他往往既不盲目乐观也不悲观绝望,而是谋划如何实现安全的突破。这些性格和经历上的差异,使他们即便面对同一技术现实,也会聚焦不同侧面:Hinton看到隐患,LeCun看到机遇,Hassabis则考虑如何权衡。
综上,Geoffrey Hinton近年来对AI持悲观态度,与他的成长背景、学术生涯以及哲学立场密不可分。从小浸润在科学与思想交融的环境,使他对智能的力量怀有敬畏;数十年引领神经网络发展的经历,又令他清醒地认识到AI技术的突飞猛进与不可控潜力。这种亲历让他在功成之际选择警示世人。而与他同时代的AI领军人物,由于所处环境、信念和性格不同,对同样的技术给出了不一样的解读:或乐观、或中道,但都为这场关乎人类未来的讨论提供了宝贵视角。正如Hinton所强调的,在享受AI带来的巨大机遇时,人类也必须未雨绸缪,慎思笃行,方能确保科技发展与人类利益同轨前行。
以下是撰写上述内容过程中使用的主要文献来源列表:
Cade Metz (2023). Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and the World. Penguin Books.(中文译本:《AI天才们:推动人工智能革命的先锋人物》)
Ford, Martin (2018). Architects of Intelligence: The Truth about AI from the People Building It. Packt Publishing.(中文译本:《智能的建筑师:AI构建者眼中的真实世界》)
Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press.
(中文译本:《深度学习》,机械工业出版社)
Hinton, Geoffrey E., Rumelhart, David E., & Williams, Ronald J. (1986). "Learning representations by back-propagating errors." Nature, 323(6088), 533–536.(神经网络关键文献)
Geoffrey Hinton接受BBC专访(2023年5月):BBC News: Geoffrey Hinton warns about AI risks.
Geoffrey Hinton离开谷歌后的访谈及分析:《纽约时报》Cade Metz报道:Geoffrey Hinton Leaves Google to Warn about AI.
Geoffrey Hinton关于AI意识的访谈:Wired专访:“AI教父Geoffrey Hinton:我认为AI可能已经拥有意识”.
Yann LeCun在AI安全辩论上的观点与评论:《华盛顿邮报》:LeCun反驳AI末日论.
Demis Hassabis观点与访谈:《经济学人》专访DeepMind创始人Demis Hassabis.
Geoffrey Hinton关于AI风险的公开联名信:AI领域专家联名声明:AI风险堪比核战与疫情.
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-6-17 07:42
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社