||
作者:Cian O’Donovan
译者:张蒂
校译:丁晓
来源:https://blogs.lse.ac.uk/impactofsocialsciences/2025/06/19/only-a-quarter-of-ai-researchers-support-a-free-for-all-on-training-data/
作者和学者对其作品未经授权被用于人工智能开发的问题越发担忧。《大西洋月刊》(The Atlantic)曾经报道,Meta公司的工程师从庞大的盗版在线图书馆下载了超过700万本书籍和8000万篇研究论文。最近,英国作家协会(The Society of Authors)代表11,000多名会员提交了一份请愿书,呼吁在人工智能训练中实现透明度和公平使用实践。
来自伦敦大学学院(UCL)的最新研究显示,许多人工智能研究人员支持为训练数据设立更严格的伦理标准。一项全球调查发现,只有四分之一的受访者认为人工智能公司应该被允许使用任何公开可用的文本或图像来训练其模型。大多数人支持采取更严格的措施,包括要求获得内容创作者的明确授权。
这一结果至关重要,因为它表明大多数研究人员反对英国政府目前关于训练数据的提案。该立法将把监管创作数据使用的责任重新转移创作者,要求他们明确“选择退出(opt out)”(著作权人可以适当方式明确保留著作权,即不允许他人未经授权使用其作品,否则将被视为“默示同意”),以这种方式防止自己的作品被使用。这与业内数十年的版权规范相悖。
关于版权的辩论表明,尽管人工智能所带来的机遇备受热议,但人工智能系统及其运营公司尚未在社会中获得广泛的运作许可。任何此类社会许可都将取决于是否能满足创意产业等不同领域人群的需求和规范。
人工智能研究人员对训练数据的看法
在2024年6月笔者所参与的团队进行了一项迄今为止规模最大的国际人工智能研究人员调查,旨在更深入地了解人工智能研究人员对该领域一系列问题的看法。关于人工智能益处的讨论主要由少数行业声音主导,这些声音往往强调自身行业的利益。例如,由行业内部人士Matt Clifford编写的英国《人工智能机会行动计划》(The UK’s AI Opportunities Action Plan)对人工智能的益处充满乐观。但根据Ada Lovelace研究所主任Gaia Marcus的说法,这一计划至今忽视了“应对更广泛人工智能危害的可信机制和路线图”。
我们希望了解那些最接近人工智能系统开发的人士如何理解公众的期望与恐惧,以及公众与人工智能研究人员的态度之间在哪些方面存在差距与重叠。
对4,260份来自已发表的人工智能研究人员的调查回复进行分析后显示,受访者对人工智能的创新与责任问题持有多样且分歧显著的看法。这些研究人员与公众在人工智能的风险问题上达成共识,但对谁应承担其安全使用责任存在分歧。尽管研究人员表示希望人工智能能够反映人类价值观,但我们发现,大多数受访者并未关注可能帮助他们更了解这些价值观的社会科学研究。
鉴于政府、科技界领袖和公众在如何治理人工智能方面存在分歧,谁应负责确保人工智能安全使用负责的问题变得尤为重要。当被问及谁应该对人工智能的安全使用负最大责任时,研究人员给出的前三位答案依次为:开发人工智能的公司、政府和国际标准制定机构。
许多人工智能研究人员认为有必要征求公众的意见,但更多受访者认为,这种征求意见应在人工智能投入实际应用时进行,主要围绕人工智能的风险、应用和监管问题。
分析还显示,相对较少的研究人员采用了涉及公众参与的人工智能创新方法。在受访者有相关经验的情况下,大多数采用的是“低参与度”方法,如调查问卷。采用赋予公众权力以参与标准制定或将研究开放给审议性过程的技术的受访者数量远少于其他受访者。
然而,研究人员确实认识到关于人工智能模型的数据供给,或是关于行业对研究议程的控制以及引导人工智能研究的必要性,存在一系列的上游问题。
人工智能研究政策的议程
尽管研究人员与笔者的观点之间存在差异,但将这些差异仅仅视为理解上的鸿沟是一种误解。披头士乐队成员、作曲家保罗·麦卡特尼(Paul McCartney)在接受BBC采访时的表述就是一个例子:“我认为人工智能很棒,它能做很多了不起的事情”,“但它不应该剥削创作者”。
很明显,麦卡特尼理解了人工智能所带来的机会。例如,他在最近的一首单曲中使用人工智能重现了已故乐队成员约翰·列侬(John Lennon)的声音。但与在Meta办公室外抗议的作家们一样,他对人工智能存在的问题和谁应为此负责有着明确的看法。这些观点以及更多公众的看法应该被认真对待,而非被视为通过教育或技术进一步发展来纠正的误解。
增加人工智能领域不同公众群体与开发者之间的对话和讨论有助于解决问题。然而,近40%的研究人员认为,阻碍公众参与的障碍包括时间不足和资金匮乏。好消息是,这些障碍可以通过资助和培训人工智能研究人员的机构提供资金、时间和资源的承诺来解决。来自“人工智能中的公共声音(Public Voices in AI)”项目的研究展示了如何实现这一目标。
当然,我们应该谨慎对待这些结果,避免过度解读。即使是最精心设计的调查问题,也会被每位受访者以不同的方式解读。还需要进一步的定性研究,以探讨人工智能研究人员如何看待风险、机遇、责任以及人工智能本身。
我们的调查旨在探究研究人员对人工智能研究民主化可能性的兴趣。结果表明,有必要进一步展开对话,为人工智能研究人员提供一个参与讨论的机会,这一讨论对他们和公众都具有重要意义。此外,还存在一些挑战,即如何克服人工智能研究人员对公众态度的认知。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-7-18 12:18
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社