刘伟
预测AI泡沫的一本新书 精选
2025-8-24 10:45
阅读:2492

《AI的骗局:如何对抗科技巨头的炒作并创造我们想要的未来》(The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want)由华盛顿大学语言学家艾米莉·M·本德(Emily M. Bender)和社会学家亚历克斯·汉娜(Alex Hanna)合著,是一本深入剖析人工智能(AI)领域炒作现象及其背后问题的书籍。

一、新书简介

本书旨在揭示和拆解所谓的“人工智能”背后被夸大的虚假宣称,深入探究科技巨头如何通过制造和传播 AI 炒作来谋取利益,以及这种行为对社会、经济、个人隐私、工作等诸多方面造成的负面影响,同时为读者提供识别、抵制这种炒作的方法,以推动创造一个更加公平、符合人类需求的未来。

两位作者的主要观点

1、AI 炒作的本质   

作者指出,关于 AI 要接管世界、科技科学家创造了能自主思考的人造生命形式、AI 会取代所有人类工作等说法都只是“AI 炒作”的表现,这些炒作背后是一些追逐权力和利益的人在操纵,他们通过扭曲话语,为富人谋利、为数据盗窃正名、推动监控资本主义以及贬低人类创造力,进而将有意义的工作替换为将人当作机器对待的工作。

2、AI 技术的局限与危害 

尽管 AI 技术有一定发展,但仍存在诸多局限和问题。例如,许多被吹捧的 AI 产品在实际应用中往往不可靠、效率低下、不公平甚至危险,却在众多领域如医疗保健、教育、媒体、政府和执法等领域被强行引入,对人类的健康、社会和环境等造成了实际伤害。

内容特色

1、专业知识的普及

本德和汉娜凭借多年学术研究的深厚知识储备,用通俗易懂且犀利幽默的语言向读者解释了这些看似高深莫测的 AI 技术实际是如何运作的,让更多人能够理解背后的技术原理,从而揭开 AI 炒作的神秘面纱。

2、多领域案例分析

书中通过大量来自政府、法律、医疗保健、新闻媒体、艺术等多个领域的实际案例,深入探讨了 AI 炒作在不同场景下的表现形式及所产生的不良影响,使读者能够更直观地感受到问题的严重性和普遍性。

3、实用指南提供

不仅批判和揭露问题,还为读者提供了在工作场所、学校、社区和家庭中识破和抵制 AI 炒作的实用指南和工具,帮助人们在日常生活中应对和反击 AI 炒作,如教读者如何识别 AI 炒作、如何拆解它以及如何揭露它试图隐藏的权力争夺等。

书籍影响与评价

该书自出版后得到了广泛关注和好评,被认为是一本关于 AI 炒作现象的深刻而有趣的著作,为公众提供了一个清晰、客观且易懂的视角来审视 AI 的承诺、局限及其复杂的历史。如《卫报》称其为“令人耳目一新的讽刺之作”,《商业内幕》则称其为“有趣且不敬的 AI 解构之作”。


二、作者如何评价AI技术的局限和危害?

在《AI的骗局:如何对抗科技巨头的炒作并创造我们想要的未来》一书中,两位作者对AI技术局限和危害评价的分析如下:

1、技术局限

① 技术本身存在缺陷:AI技术在数据、算法等方面存在局限,如数据可能存在偏差、不准确或不完整,从而影响AI的输出结果。算法的局限性导致AI在理解和处理复杂问题时存在困难,难以像人类一样进行灵活的推理和判断,如机器幻觉、机器欺骗、机器任性等等,而且根除不了。

② 难以真正理解人类情感和文化:AI虽然可以生成看似合理的内容,但很难真正理解人类的情感、文化背景以及社会规范。这使得AI在处理需要深层次情感理解和社会文化考量的场景时,容易出现失误或不适当的情况。

③ 易产生错误和偏见:AI的训练数据往往来源于人类社会,其中可能包含各种偏见和错误。AI在学习和生成内容时,可能会继承和放大这些偏见和错误,从而导致其输出的内容具有误导性或不公平性。

④ 缺乏创造力和自主性:AI是基于既有的数据和算法进行学习和生成的,其创造性相对有限,难以像人类一样进行真正的创新和突破。它更多地是对已有知识和模式的模仿和组合,缺乏自主性和创造力。

⑤ 技术的不可解释性:一些复杂的AI模型,如深度学习模型,其内部工作机制难以理解和解释。这给AI的应用带来了一定的风险,因为在某些情况下,人们可能无法确定AI是如何得出某个结论或做出某个决策的,难以对其结果进行有效的评估和监督。

2、社会影响

① 隐私和安全问题:AI技术的应用需要大量的数据支持,在数据收集、存储和使用过程中,容易导致个人隐私泄露和安全风险。一些企业或机构可能会利用AI技术对个人数据进行过度挖掘和滥用,从而侵犯用户的隐私权和安全利益。

② 社会不平等加剧:AI技术的应用可能会导致社会不平等现象的加剧。一方面,AI技术的发展需要大量的资源和专业知识,这使得一些大型科技企业和富裕阶层更容易获得和利用AI技术,从而巩固和扩大其优势地位;另一方面,AI技术的应用可能会取代一些低技能的工作岗位,导致一部分人失去工作机会,加剧社会的贫富差距。

③ 社会信任受损:由于AI技术的不可解释性和潜在的错误与偏见等问题,人们对其结果的可信度和可靠性产生怀疑,可能会导致社会信任的下降。在一些重要领域,如医疗、金融等,人们对AI的不信任可能会阻碍其应用和推广,影响社会的正常运转和效率提升。

④ 对人类认知和思维的影响:长期依赖AI技术可能会对人类的认知和思维能力产生一定的负面影响。人们可能会逐渐失去一些基本的思考、判断和解决问题的能力,变得更加依赖于AI的辅助。此外,AI生成的内容可能会对人类的价值观和认知产生误导,影响社会的文化和思想发展。

3、经济影响

① 对就业市场的冲击:AI技术的应用可能会导致一些工作岗位的消失,尤其是在那些重复性、规律性强的领域。如一些数据输入员、客服人员等岗位可能会被AI所取代,从而给就业市场带来压力,导致失业率上升和社会不稳定因素增加。

② 企业竞争和不平等:在企业竞争中,那些能够率先掌握和应用AI技术的企业可能会获得更大的竞争优势,从而进一步扩大市场份额和利润。这可能会导致市场集中度的提高,不利于中小企业的生存和发展,加剧企业的不平等竞争态势。

③ 经济泡沫和投资风险:AI技术的炒作可能会引发经济泡沫,吸引大量的投资和资源涌入AI领域,导致资源的过度集中和浪费。一旦AI技术的发展未能达到预期,可能会引发经济泡沫的破裂,给投资者和相关企业带来巨大的损失,对经济的稳定发展造成不利影响。

4、伦理道德影响

① 算法偏见与歧视:AI算法的偏见可能导致对某些群体的歧视和不公平对待,如在招聘、贷款审批、司法等领域,基于有偏见的数据或算法做出的决策可能会影响公平性和公正性,损害被歧视群体的利益。

② 责任归属不清:当AI做出决策或行动时,很难确定责任的归属。例如,如果AI系统的错误判断导致了事故或损失,很难明确是开发者、使用者还是其他相关方应该承担主要责任,这给法律和伦理带来了挑战。

③ 人类价值观念的冲击:AI的发展可能会对人类的价值观念产生冲击,如对人类的自主性、尊严、隐私等基本权利的重新审视。此外,AI生成的内容可能会对人类的文化、艺术等领域产生影响,引发关于创作、版权等伦理道德问题的讨论。

三、AI+,即人机环境系统智能可以解决AI问题吗?

“AI+”,即人机环境系统智能(AI+人+环境),是人工智能发展的一个重要方向,它强调在考虑人类、机器和环境三者交互的基础上,构建智能系统。相比传统人工智能,它在解决一些AI问题上具有一定的潜力和优势,但也有其局限性和需要改进的地方。

1、解决AI问题的潜力和优势

① 解决黑箱问题:人机环境系统智能强调人机协同,通过让人类参与决策过程,可以对AI的决策进行监督和解释,从而提高AI系统的可解释性,解决传统AI的黑箱问题。例如,在医疗领域,医生可以根据AI的诊断建议,结合自己的专业知识和经验,对诊断结果进行解释和验证,让患者更容易理解和接受。

② 缓解数据孤岛问题:系统智能注重多源数据的融合与共享,包括人类知识经验数据、机器传感器数据以及环境监测数据等。通过整合不同来源的数据,能够打破数据孤岛,为AI系统提供更全面、丰富的信息,从而提高其性能和准确性。比如在智慧城市建设中,将政务数据、交通数据、环境数据等进行整合,有助于实现更精准的城市管理和决策。

③ 提升模型适应性和泛化能力:考虑到环境的动态性和不确定性,人机环境系统智能强调AI系统的自适应性和动态学习能力。这使得AI能够更好地适应复杂多变的现实环境,提高其在不同场景下的泛化能力。例如,在自动驾驶中,车辆需要实时感知周围环境的变化并做出相应的决策,人机环境系统智能可以使自动驾驶系统不断学习和适应新的路况和交通状况。

④ 降低隐私和安全风险:在人机环境系统中,可以通过合理分配人机角色和权限,让人类对敏感数据和关键决策进行把控,同时利用技术手段对数据进行加密和保护,从而降低隐私泄露和安全风险。比如在金融领域,对于涉及用户隐私和资金安全的业务,由人工进行审核和监督,同时利用AI技术进行风险评估和辅助决策。

2、局限性和改进之处

① 技术成熟度和复杂性:人机环境系统智能涉及多个领域的技术融合,包括人工智能、认知科学、心理学、控制论等,技术难度较大,目前尚未完全成熟。构建和实现这样复杂的系统需要克服诸多技术挑战,如多模态信息融合、人机交互的自然性和高效性、环境感知的准确性和实时性等。

② 人机协作的协调和平衡:要实现人机环境系统的有效运行,需要在人机协作中找到合适的平衡点,充分发挥人类和机器各自的优势。然而,在实际应用中,如何合理分配人机角色和任务,避免人机冲突和协作不畅,仍然是一个需要解决的问题。例如,在一些复杂的工业生产过程中,人类和机器需要紧密配合,如果协作不协调,可能会导致生产效率低下甚至出现安全事故。

③ 伦理和法律问题的复杂性:人机环境系统智能的应用涉及到更多的伦理和法律问题,如责任界定、数据所有权、人工智能的权利和义务等。由于其系统的复杂性和多主体参与的特点,这些问题更加难以解决,需要社会各界共同努力,制定相应的法律法规和伦理准则。

④ 对基础设施和资源的要求高:为了实现人机环境系统智能的高效运行,需要强大的计算能力、高速稳定的网络基础设施以及大量的数据存储和处理资源。这可能限制了其在一些资源有限的地区和场景中的应用,如偏远地区的医疗诊断、农业生产等领域。

总之,人机环境系统智能(AI+人+环境)通过融合人类智慧、机器智能以及环境感知,可以有效解决传统AI面临的诸多问题。其强调人机协同决策,增强了AI的可解释性和可靠性;实现多源数据融合,打破数据孤岛,提升了模型的适应性和泛化能力;同时,系统注重环境动态变化,能实时调整策略,降低隐私和安全风险。此外,通过合理分配人机角色,可充分发挥双方优势,提升整体性能,为AI的可持续发展提供了新的方向。


mmexport1752356593579.jpg



转载本文请联系原作者获取授权,同时请注明本文来自刘伟科学网博客。

链接地址:https://wap.sciencenet.cn/blog-40841-1498894.html?mobile=1

收藏

分享到:

下一篇
当前推荐数:5
推荐到博客首页
网友评论1 条评论
确定删除指定的回复吗?
确定删除本博文吗?