|
摘要 人工智能(AI)在学术写作中的广泛应用引发了医学出版界对科研诚信和内容质量的关注。本文通过对比分析四大医学期刊(NEJM、Lancet、JAMA、BMJ)及中华医学会对AI使用的政策,总结其异同点,并探讨医学期刊中AI技术的使用边界问题。针对作者的AI使用政策对比结果显示:上述5个机构均强调透明度、作者责任及AI不可署名;但在披露细节、允许的AI应用范围及违规处理措施上存在差异。本文建议进一步统一政策框架,强化技术监管与伦理教育,以平衡AI辅助效率与学术严谨性。
关键词 人工智能(AI);医学期刊;AI应用边界;技术监管;伦理教育
0 引言
人工智能(AI)的风潮如同一场科技革命一样席卷全球,改变了我们生活的方方面面[1]。在学术界,AI技术在辅助科学研究和论文写作中亦发挥着越来越重要的作用[2],但也带来了抄袭、数据操纵等风险。AI介入的医学研究,除对医学出版物、标准库和开放共享医学知识数据库中已经公开的数据或文献进行分析的综述、评价、解读外,一些原始数据的采集基本来自真实世界,研究对象往往涉及个人和群体生命健康,研究数据关乎隐私与安全。数据的收集、储存和使用需要充分的信息防护措施,特别是对于个人敏感信息、身份识别信息、与数据分析结果相关的个人信息来源等数据的处理与保密方法尤为关键[3]。
四大医学期刊分别是新英格兰医学杂志(NEJM)、柳叶刀(Lancet)、美国医学会杂志(JAMA)和英国医学杂志(BMJ)。这些期刊因其高质量的研究内容和广泛的影响力,被公认为医学领域的顶级期刊。这些期刊不仅在医学研究和临床实践中发挥着重要作用,也是医学教育和学术交流的重要平台。它们发表的研究成果对推动医学科学的发展和改善患者护理具有重要作用。中华医学会出版发行191种纸质、电子系列医学期刊,是发展我国医学科学技术和卫生事业的重要社会力量。
为规范AI使用,四大医学期刊及中华医学会相继出台政策。本文通过系统对比分析,揭示医学期刊对AI应用的监管逻辑,探讨其边界问题,为完善学术伦理框架提供参考。
1方法
基于以上5个机构官网公开的政策文件,提取四大医学期刊及中华医学会对作者AI使用的具体要求,从披露要求、作者责任、允许范围、禁止行为、违规处理五个维度进行对比,分析AI在医学写作中的潜在风险与应对策略。
2结果
四大医学期刊及中华医学会都要求作者在文中特定部分披露使用AI的情况;作者对AI生成内容负责;基本都允许在语言加工或润色方面使用AI;除了Lancet没有明确规定外,其余都禁止AI出现在作者列表中;除NEJM没有明确说明外,其余对违规行为都会作退稿处理(表1)。
表1四大医学期刊及中华医学会在作者使用AI方面的政策对比分析
维度 | NEJM | Lancet | JAMA | BMJ | 中华医学会 |
披露要求 | 需在投稿信和稿件中描述AI技术及使用范围 | 在致谢或方法部分详细说明工具名称、使用目的及过程 | 在致谢或方法部分报告工具名称、版本、使用日期及具体应用 | 在“作者贡献”部分声明,方法部分补充细节 | 在方法学部分详细披露工具名称、版本、使用时间及审查情况 |
作者责任 | 对AI生成内容的准确性、原创性及引用完整性负责 | 强调人类对内容的最终责任 | 需描述AI在研究方法中的应用细节,确保数据可重复性 | 要求作者承担AI生成内容的准确性、无抄袭责任 | 作者对AI辅助内容负全责,需验证统计结果及文献真实性 |
允许范围 | 语言润色、内容生成(需人工审核) | 语言优化、图表概念设计(禁止上传稿件至公开AI工具) | 研究设计、数据分析、语言编辑(需标注生成内容) | 文本优化、数据清理(禁止AI生成核心内容) | 文献检索、统计验证、语言润色、图表推荐、参考文献格式化(“五可以”) |
禁止行为 | AI不可署名,禁止引用AI生成内容作为主要来源 | 禁止输入未发表稿件至AI工具 | AI不可署名,禁止使用AI生成研究假设或核心结论 | AI不可署名,禁止使用AI生成观点性内容 | AI不可署名,禁止用于论文核心部分撰写(“两禁止”) |
违规处理 | 未明确具体措施,依赖学术诚信审查 | 退稿或要求补充声明 | 退稿或标注为学术不端 | 退稿、撤稿或列入黑名单 | 直接退稿/撤稿,严重者禁投稿2年并纳入失信名单 |
注:本表基于政策文件分析,具体条款以各期刊官方指南为准。
3讨论
3.1AI技术应用的边界
辅助性功能:各机构普遍允许AI用于语言润色、数据整理等辅助性任务,但严格禁止其参与核心科学贡献(如假设生成、结果解释)。例如,中华医学会明确禁止使用AI撰写研究方法或结论,而JAMA要求作者详细说明AI在数据分析中的具体参数,以确保可重复性。
数据伦理:AI在统计分析中的应用需基于真实数据,且结果需经人工验证(如中华医学会要求“其他途径测试验证”),避免因算法偏差导致结论失真。
3.2透明性与责任划分
披露要求的差异可能影响政策执行效果。例如,NEJM仅要求“描述技术”,而JAMA需提供工具版本、使用日期等细节,更利于追溯审查。
作者对AI生成内容的全责原则(如BMJ规定)强化了人类主导地位,但需配套技术工具(如AI检测软件)以识别潜在抄袭或数据篡改。
3.3保密与版权风险
Lancet和中华医学会均禁止将未发表稿件输入公开AI工具,以防止版权泄露。然而,期刊编辑或审稿专家使用内部AI工具进行剽窃筛查仍需平衡效率与隐私的保护。
3.4未来挑战
技术滥用:生成式AI可能捏造参考文献(“幻觉问题”)或放大种族偏见(如Lancet提及的“方言歧视”),需开发针对性检测算法。
政策滞后性:现有政策多基于当前技术,需建立动态更新机制(如BMJ每6个月审查政策)。
4结论与建议
四大期刊及中华医学会的政策体现了对AI“审慎开放”的共识,但在执行细节和监管力度上需进一步协调。建议:
(1)统一披露标准:制定国际通用的AI使用报告模板,涵盖工具名称、版本、使用范围及验证方法;(2)强化技术监管:开发AI内容识别工具,并与出版平台整合,实现自动化筛查;(3)伦理教育:将AI合规使用纳入科研培训,提升作者对算法局限性的认知;(4)动态政策框架:建立跨机构合作机制,定期评估技术风险并更新指南。转载请显著标明来源美捷登。
作者:张建军 首都医科大学学报编辑部
参考文献
[1] 裴磊. 医学生如何抓住人工智能的风口?未来的医学创新,从这里开始!Medical Research & Publication, 2025, 11(1):20-23.
[2] 张天舒,程鑫. 学术期刊视角下的AI写作技术:应用、风险与对策[J]. 吉林师范大学学报(人文社会科学版),2024,52(6):107-114.
[3] 许媛媛,张群,崔云裳. 人工智能背景下科技期刊论文出版中的伦理风险与应对策略[J]. 数字出版研究,2024,3(4):94-100.
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-8-4 16:03
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社