AI如何颠覆学术出版
随着ChatGPT等AI技术的发展,由于其在文字使用方面的优势,影响学术论文撰写是其必然,这种影响可能是颠覆性。学术出版的根本目的是科学研究,科学研究的目的是回答未知问题和提供新技术方法。因此学术出版本质是交流方式。如果AI能在交流准确性和效率上超越人类,这可能是一种必然,那么借助AI实现学术交流,或者AI彻底颠覆学术出版,也没有什么不可以。如果进一步推演,AI在科学研究能力上超越人类也不是没有可能。最近利用AI进行蛋白质结构分析和研究的发展证明AI在科学研究方面的突出优势,只不过今天还没有实现其自身主动科研的目标,但这只是早晚都会实现的。学术出版在人类历史上也是思想交流的一个方式,面临信息技术的发展,必然会不断改进和发展。未来的学术出版最终的结果如何很难预料,但排斥新技术AI一定会没有出路。
How ChatGPT and other AI tools could disrupt scientific publishing (nature.com)
当放射科医生多梅尼科·马斯特罗迪卡萨(Domenico Mastrodicasa)发现自己在撰写研究论文时陷入困境时,他转向了ChatGPT,这是一个聊天机器人,可以在几秒钟内对几乎任何查询做出流畅的响应。“我把它当作一个共鸣板,”西雅图华盛顿大学医学院的Mastrodicasa说。“我可以更快地制作出一份可出版的手稿。”
Mastrodicasa是众多尝试使用生成人工智能(AI)工具来编写文本或代码的研究人员之一。他为ChatGPT Plus付费,这是基于大型语言模型(LLM)GPT-4的机器人订阅版本,每周使用几次。他发现这对于提出更清晰的方式来传达他的想法特别有用。尽管《自然》杂志的一项调查表明,经常使用LLM的科学家仍然是少数,但许多人预计生成式人工智能工具将成为撰写手稿、同行评审报告和资助申请的常规助手。
这些只是人工智能可以改变科学传播和出版的一些方式。科学出版商已经在科学搜索工具中试验生成人工智能,以及用于编辑和快速总结论文。许多研究人员认为,非英语母语人士可以从这些工具中受益最多。一些人认为生成人工智能是科学家重新思考他们如何询问和总结实验结果的一种方式——他们可以使用LLM来完成大部分工作,这意味着更少的时间写论文,更多的时间做实验。
“写论文从来都不是任何人的目标——而是做科学,”加州大学伯克利分校的计算生物学家迈克尔·艾森(Michael Eisen)说,他也是《eLife》杂志的主编。他预测,生成式人工智能工具甚至可以从根本上改变科学论文的性质。
但是,不准确和虚假的幽灵威胁着这一愿景。LLM只是用于生成适合其输入模式的风格上合理的输出的引擎,而不是产生准确的信息。出版商担心,使用量的增加可能会导致更多的劣质或错误百出的手稿,并可能导致人工智能辅助的假货泛滥。
“任何像这样的破坏性事情都可能非常令人担忧,”英国布里斯托尔IOP出版公司(IOP Publishing)的同行评审负责人劳拉·富瑟姆(Laura Feetham)说,该公司出版物理科学期刊。
大量假货?
科学出版商和其他人已经确定了一系列关于生成人工智能潜在影响的担忧。生成式人工智能工具的可访问性可能会更容易地撰写低质量的论文,最坏的情况是,损害研究完整性,伦敦研究分析公司Digital Science的首席执行官丹尼尔·胡克(Daniel Hook)说。“出版商感到害怕是完全正确的,”胡克说(数字科学是Holtzbrinck出版集团的一部分,该集团是Nature出版商Springer Nature的大股东)。
在某些情况下,研究人员已经承认使用ChatGPT来帮助撰写论文,但没有披露这一事实。他们被抓住是因为他们忘记删除其使用的明显迹象,例如虚假引用或软件的预编程响应,即它是AI语言模型。
理想情况下,出版商将能够检测LLM生成的文本。在实践中,人工智能检测工具迄今为止已被证明无法可靠地挑选出这样的文本,同时避免将人类写的散文标记为人工智能的产物。
尽管商业LLM的开发人员正在努力为LLM生成的输出加水印以使其可识别,但尚未有公司将其用于文本。英国牛津大学的法律学者桑德拉·瓦赫特(Sandra Wachter)说,任何水印都可以删除,她专注于新兴技术的伦理和法律影响。她希望全世界的立法者坚持对LLM进行披露或水印,并将删除水印定为非法。
出版商正在通过完全禁止使用LLM来解决这个问题(正如Science的出版商美国科学促进会所做的那样),或者在大多数情况下坚持透明度(《自然》和许多其他期刊的政策)。一项对100家出版商和期刊进行的研究发现,截至2023年5月,17%的出版商和70%的期刊已经发布了关于如何使用生成人工智能的指导方针,尽管他们在如何应用这些工具方面存在差异,洛杉矶南加州大学的泌尿科医生Giovanni Cacciamani说,他是这项工作的合著者,尚未经过同行评审。他和他的同事正在与科学家和期刊编辑合作,制定一套统一的指导方针,以帮助研究人员报告他们对LLM的使用情况。
许多编辑担心,生成人工智能可以用来更容易地制作虚假但令人信服的文章。为希望提高出版产量的研究人员创建和销售手稿或作者职位的公司(称为论文工厂)可能会获利。《科学》杂志的一位发言人告诉《自然》杂志,像ChatGPT这样的LLM可能会加剧论文工厂的问题。
对这些担忧的一种回应可能是,一些期刊加强他们的方法,以验证作者是真实的,并且已经完成了他们正在提交的研究。“对于期刊来说,了解某人是否真的做了他们声称的事情是很重要的,”Wachter说。
在德国海德堡的EMBO Press出版社,作者必须只使用可验证的机构电子邮件地址进行投稿,编辑人员通过视频通话与作者和裁判会面,那里的科学出版物负责人Bernd Pulverer说。但他补充说,研究机构和资助者也需要更密切地监控其员工和赠款接受者的产出。“这不是可以完全委托给期刊的东西,”他说。
生成人工智能有利于公平
当《自然》杂志调查研究人员他们认为生成人工智能对科学的最大好处时,最受欢迎的答案是,它将帮助那些没有英语作为第一语言的研究人员。“使用人工智能工具可以提高科学的公平性,”澳大利亚布里斯班昆士兰大学的保护科学家Tatsuya Amano说。天野和他的同事调查了900多名环境科学家,他们至少用英语撰写了一篇论文。在早期职业研究人员中,非英语母语人士表示,他们的论文被拒绝是因为写作问题的频率是母语为英语的人的两倍多,而英语母语人士也花在撰写投稿上的时间更少。ChatGPT和类似的工具对这些研究人员来说可能是“巨大的帮助”,天野说。
天野的第一语言是日语,他一直在试验ChatGPT,并表示这个过程类似于与母语为英语的同事合作,尽管该工具的建议有时存在不足。在《科学》杂志禁止生成性人工智能工具之后,他于三月份与人合著了一篇社论,认为只要作者披露其用途,例如将原始手稿与人工智能编辑的版本一起包含,它们就可以使科学出版更加公平。
LLM远非第一个可以润色写作的AI辅助软件。但生成式人工智能要灵活得多,东京大学人工智能研究员艾琳·李(Irene Li)说。她以前使用 Grammarly(一种人工智能驱动的语法和拼写检查器)来提高她的书面英语,但后来改用 ChatGPT,因为它更通用,从长远来看提供更好的价值;她无需为多种工具付费,只需订阅一个即可完成所有工作的工具。“这节省了很多时间,”她说。
然而,LLM的发展方式可能会加剧不平等,人工智能伦理学家Chhavi Chauhan说,他也是马里兰州罗克维尔美国调查病理学会的科学推广主任。Chauhan担心,一些免费的LLM将来可能会变得昂贵,以支付开发和运行它们的成本,如果出版商使用AI驱动的检测工具,他们更有可能错误地将非英语母语人士编写的文本标记为AI。七月份的一项研究发现,当前一代的GPT探测器确实会发生这种情况。4.“我们完全错过了这些生成人工智能模型将造成的不平等,”她说。
对同行评审的挑战
LLM对同行评审员来说也可能是一个福音。自从使用ChatGPT Plus作为助手以来,Mastrodicasa说他能够接受更多的审查请求,使用LLM来润色他的评论,尽管他没有将手稿或任何信息上传到在线工具中。“当我已经有了草稿时,我可以在几个小时内完善它,而不是几天,”他说。“我认为这不可避免地将成为我们工具包的一部分。德国耶拿弗里德里希席勒大学的化学信息学研究员Christoph Steinbeck发现ChatGPT Plus可以方便地为他正在审查的预印本创建快速摘要。他指出,预印本已经在线,因此保密性不是问题。
一个关键问题是,研究人员可以依靠ChatGPT来不假思索地进行评论,尽管直接要求LLM审查手稿的幼稚行为除了摘要和文案编辑建议之外可能几乎没有价值,Mohammad Hosseini说,他在芝加哥西北大学Galter健康科学图书馆和学习中心研究研究伦理和诚信, 伊利诺伊州。
在同行评审中,对LLM的早期担忧大多与保密性有关。包括爱思唯尔(Elsevier)、泰勒(Taylor & Francis)和IOP Publishing在内的几家出版商禁止研究人员将手稿和文本部分上传到生成人工智能平台以生成同行评审报告,因为他们担心这项工作可能会被反馈到LLM的培训数据集中,这将违反合同条款,以保持工作机密。出于保密考虑,美国国立卫生研究院禁止使用ChatGPT和其他生成AI工具来对资助进行同行评审。澳大利亚研究委员会出于同样的原因禁止在拨款审查期间使用生成人工智能,此前一些似乎由 ChatGPT 撰写的评论在网上出现。
绕过机密性障碍的一种方法是使用私有托管的LLM。有了这些,人们可以确信数据不会反馈给在云中托管LLM的公司。位于坦佩的亚利桑那州立大学正在试验基于开源模型的私人托管LLM,如Llama 2和Falcon。“这是一个可以解决的问题,”该大学知识企业首席科学和技术官尼尔伍德伯里说,他为大学领导者提供研究计划的建议。
Feetham说,如果LLM如何存储,保护和使用放入其中的数据更清楚,那么可以想象这些工具可以集成到出版商已经使用的审查系统中。“如果使用得当,那里有真正的机会。五年多来,出版商一直在使用机器学习和自然语言处理人工智能工具来协助同行评审,而生成人工智能可以增强该软件的功能。出版商Wiley的发言人表示,该公司正在试验生成人工智能,以帮助筛选手稿,选择审稿人并验证作者的身份。
伦理道德问题
然而,一些研究人员认为,LLM在道德上过于模糊,无法纳入科学出版过程。一个主要的担忧在于LLM的工作方式:通过拖网内容而不考虑偏见,同意或版权,荷兰奈梅亨Radboud大学的认知科学家Iris van Rooij说。她补充说,生成式人工智能是“设计上的自动抄袭”,因为用户不知道这些工具从哪里获取信息。她认为,如果研究人员更加意识到这个问题,他们就不会想使用生成人工智能工具。
一些新闻机构已经阻止了ChatGPT的机器人拖网他们的网站,媒体报道表明一些公司正在考虑诉讼。尽管科学出版商还没有在公开场合走得那么远,但Wiley告诉《自然》杂志,它“正在密切关注行业报告和诉讼,声称生成式人工智能模型正在收集受保护的材料用于培训目的,同时无视对该信息的任何现有限制”。出版商还指出,它呼吁加强监管监督,包括LLM提供者的透明度和审计义务。
Hosseini也是Taylor&Francis出版的《研究责任》杂志的助理编辑,他认为,对LLM进行特定学科科学文献培训可能是提高其产出对科学家的准确性和相关性的一种方法 - 尽管没有与Nature联系的出版商表示他们正在这样做。
如果学者开始依赖法学硕士,另一个担忧是他们的表达能力可能会萎缩,英国布里斯托大学研究政策和文化的Gemma Derrick说。她说,早期职业研究人员可能会错过发展进行公平和平衡审查的技能。
转型变革
更广泛地说,生成式人工智能工具有可能改变研究的发表和传播方式,加拿大蒙特利尔Mila-魁北克人工智能研究所的高级机器学习科学家Patrick Mineault说。这可能意味着研究将以机器而不是人类可以轻松阅读的方式发表。“将会有所有这些新的出版形式,”Mineault说。
在法学硕士时代,艾森描绘了一个未来,在这个未来,研究结果以交互式的“按需论文”格式发表,而不是作为静态的、一刀切的产品。在这个模型中,用户可以使用生成式人工智能工具来询问有关实验、数据和分析的查询,这将使他们能够深入了解与他们最相关的研究方面。它还将允许用户访问根据其需求量身定制的结果说明。“我认为我们停止使用单一叙事作为人与科学研究结果之间的接口只是时间问题,”艾森说。
scite和Elicit等公司已经推出了搜索工具,使用LLM为研究人员提供自然语言的查询答案。八月份,爱思唯尔推出了自己的工具Scopus AI的试点版本,以快速总结研究主题。通常,这些工具使用 LLM 来改写从传统搜索查询返回的结果。
Mineault补充说,生成式人工智能工具可以改变研究人员进行荟萃分析和审查的方式——尽管前提是这些工具构成信息和参考文献的倾向能够得到充分解决。Mineault见过的最大的人类生成评论包括大约1,600篇论文,但与生成AI合作可以更进一步。“这在整个科学文献中只占很小的比例,”他说。“问题是,现在科学文献中有多少东西可以被利用?”
转载本文请联系原作者获取授权,同时请注明本文来自孙学军科学网博客。
链接地址:https://wap.sciencenet.cn/blog-41174-1405499.html?mobile=1
收藏