《自然》警示:人工智能现在就可能会带来风险
看到行业领导者谈论自己产品的潜在杀伤力是不寻常的。例如,这不是烟草或石油高管倾向于做的事情。然而,似乎不到一周的时间,科技行业内部人士就没有大肆宣扬人工智能(AI)的存在风险。
今年三月,埃隆·马斯克(Elon Musk)和其他技术专家签署的一封公开信警告说,巨型人工智能系统对人类构成了巨大的风险。几周后,开发人工智能工具的先驱杰弗里·辛顿(Geoffrey Hinton)辞去了他在谷歌的研究职位,警告这项技术带来的严重风险。包括OpenAI和Google DeepMind代表在内的500多名商业和科学领袖在一份23个字的声明中表示,解决人工智能导致人类灭绝的风险“应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项”。6月7日,英国政府宣布将于今年秋天举办首届大型全球人工智能安全峰会时援引人工智能的潜在生存危险。
人工智能可能导致人类灭绝的想法,多年来一直在技术界的边缘讨论。对ChatGPT工具和生成AI的兴奋现在已经将其推向主流。但是,就像魔术师的花招一样,它将注意力从真正的问题上转移开:人工智能系统和工具现在造成的社会危害,或者未来可能造成的社会危害。各国政府和监管机构尤其不应被这种说法分散注意力,必须采取果断行动遏制潜在的危害。尽管他们的工作应该由科技行业提供信息,但它不应该受制于科技议程。
许多与《自然》杂志交谈过的人工智能研究人员和伦理学家对主导人工智能辩论的世界末日言论感到沮丧。它至少在两个方面存在问题。
首先,人工智能作为全能机器的幽灵加剧了国家之间发展人工智能的竞争,以便他们能够从中受益并控制它。这对科技公司有利:它鼓励投资并削弱监管该行业的论据。生产下一代人工智能军事技术的实际军备竞赛已经在进行中,增加了灾难性冲突的风险——也许是世界末日,但不是主流“人工智能威胁人类灭绝”叙事中讨论的那种。
其次,它允许一个由公司高管和技术人员组成的同质群体主导有关人工智能风险和监管的对话,而其他社区则被排除在外。科技行业领导者写的信“基本上是在围绕谁在这场对话中算作专家划定界限”,纽约市AI Now Institute所长Amba Kak说,该研究所专注于人工智能的社会后果。
人工智能系统和工具具有许多潜在的好处,从综合数据到协助医疗诊断。但它们也可能造成有据可查的危害,从有偏见的决策到裁员。人工智能驱动的面部识别已经被专制国家滥用,以跟踪和压迫人民。有偏见的人工智能系统可以使用不透明的算法来拒绝人们的福利、医疗或庇护——这些技术的应用可能对边缘化社区的人影响最大。
围绕最新一代生成式人工智能的最大担忧之一是它有可能增加错误信息。这项技术使得制作更多、更有说服力的虚假文字、照片和视频变得更加容易,这些文字、照片和视频可能会影响选举,或者破坏人们信任任何信息的能力,从而可能破坏社会的稳定。如果科技公司真的想避免或减少这些风险,他们必须将道德、安全和问责制置于工作的核心。目前,他们似乎不愿意这样做。OpenAI对其最新的生成AI模型GPT4进行了“压力测试”,提示它产生有害内容,然后采取保护措施。但是,尽管该公司描述了它所做的事情,但测试的全部细节和模型训练的数据并未公开。
科技公司必须为负责任地开发人工智能系统和工具制定行业标准,并在产品发布之前进行严格的安全测试。他们应该向能够验证数据的独立监管机构提交完整的数据,就像制药公司必须在药品上市销售之前向医疗当局提交临床试验数据一样。
为此,政府必须建立适当的法律和监管框架,并适用现有的法律。本月早些时候,欧洲议会批准了《人工智能法案》,该法案将根据其潜在风险来规范欧盟的人工智能应用——例如,禁止警察在公共场所使用实时面部识别技术。在欧盟成员国成为法律之前,该法案还需要清除进一步的障碍,并且存在关于如何执行的细节存在疑问,但它可能有助于制定人工智能系统的全球标准。关于人工智能风险和法规的进一步磋商,例如即将举行的英国峰会,必须邀请各种各样的与会者,其中包括研究人工智能危害的研究人员以及来自已经或特别有可能受到该技术伤害的社区的代表。
研究人员必须发挥自己的作用,自下而上地建立负责任的人工智能文化。四月份,大型机器学习会议NeurIPS(神经信息处理系统)宣布采用会议提交的道德准则。这包括期望涉及人类参与者的研究已获得伦理或机构审查委员会(IRB)的批准。所有研究人员和机构都应遵循这种方法,并确保IRB(或不存在IRB的情况下的同行评审小组)拥有检查潜在风险AI研究的专业知识。使用包含人类数据的大型数据集的科学家必须找到获得同意的方法。
关于生存风险的恐惧叙述不是建设性的。认真讨论实际风险,并采取行动遏制这些风险。人类越早建立与人工智能的交往规则,我们就能越早学会与技术和谐相处。
转载本文请联系原作者获取授权,同时请注明本文来自孙学军科学网博客。
链接地址:https://wap.sciencenet.cn/blog-41174-1393487.html?mobile=1
收藏