|
ChatGPT和类似的大语言模型 (LLM) 一经问世就给科学界和公众带来了巨大惊喜,但同时也引发了人们反思其对科学的潜力和风险(Grimaldi & Ehrler, 2023; Nature, 2023; Thorp, 2023; van Dis et al., 2023)。
作为JDIS的编辑,我们决定:
软件程序不可列为文章作者,原因在于它(或其开发者)并不能够对其产生内容的科学完整性负责。
然而,我们也倾向认为这些工具将不可避免地引入到科学写作和出版中(Grimaldi & Ehrler, 2023; van Dis et. al., 2023)。事实上,LLM可能很快就会融入写作,甚至是同行评议和编辑决策中。
因此,遵循Nature的建议(Nature, 2023;van Dis, 2023),我们敬告JDIS的作者:
若您在撰写文章过程中使用了LLM,请予以承认。
与同行们一样,我们将怀着极大的兴趣,继续关注LLM在促进和改善科学出版中的潜力。
参考文献:
van Dis, E. A. M., Bollen, J., Zuidema. W., van Rooij, R. & Bockting, C. L. (2023) ChatGPT: five priorities for research. Nature, 614, 224–226.
Grimaldi, G., & Ehrler, B. (2023). AI et al.: machines are about to change scientific publishing forever. ACS Energy Letters, 8, 878–880.
Nature (2023). Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, 613, 612–612.
Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science, 379(6630), 313–313.
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-10-20 01:59
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社