9月10日,中国科学院科研道德委员会公开发布《关于在科研活动中规范使用人工智能技术的诚信提醒》(以下简称《诚信提醒》),对中国科学院科技人员和学生进行提醒。
看到此提醒,感慨万千。在信息远不发达的年代,人们做科研是讲究诚信的(想抄也没地方抄)。为什么信息技术普及后,尤其是大数据人工智能出现后,学术界某些人却似找到一条“捷径”,可以靠技术获取“科研成果”,伪造,编造论文似乎愈演愈烈。就说论文查重,每年各学校都有大量论文初审通不过,为什么?花了大量经费用于查重,不如拿来做点有意义的科研?
这只能说明一点,近些年学术界风气坏了。是谁带坏的?是学术界的一些“导师”。他们为了功名,不惜造假。上梁不正下梁歪,这样的导师指导的学生怎么知道学术规范?教育部科技部近些年出台了多少关于学术规范的文件,又有多少起到了遏制效果?头疼医头脚疼医脚,治标不治本,如同破四唯,没有从制度上根本上采取有效治理,才导致今天的学术界种种问题。
附关于在科研活动中规范使用人工智能技术的诚信提醒
中国科学院科研道德委员会
(2024年9月10日发布)
为了在科研活动中规范使用人工智能技术,避免误用、滥用人工智能技术引发的科研诚信风险,遵循诚实、透明、负责任的原则,中国科学院科研道德委员会依据科研活动全流程诚信管理要求,对我院科技人员和学生提醒如下:
提醒一:在选题调研、文献检索、资料整理时,可借助人工智能技术跟踪研究动态,收集整理参考文献,并对人工智能生成信息的真实性、准确性、可靠性进行辨识;反对直接使用未经核实的由人工智能生成的调研报告、选题建议、文献综述等。
提醒二:在申报材料撰写时,如使用了由人工智能生成的内容,应对内容负责,并全面如实声明使用情况;反对直接使用未经核实的由人工智能生成的申报材料。
提醒三:在数据收集和使用时,如使用了由人工智能生成的模拟仿真数据、测试数据等,或使用人工智能技术对原始数据进行统计分析,应全面如实声明使用情况;反对将人工智能生成的数据作为实验数据。
提醒四:在音视频和图表制作时,可利用人工智能技术辅助完成,应对生成内容进行标识,并全面如实声明使用情况;反对使用人工智能直接生成音视频和图表。
提醒五:在成果撰写时,可使用人工智能技术辅助整理已有的理论、材料与方法等,可进行语言润色、翻译、规范化检查;反对将人工智能生成内容作为核心创新成果,反对使用人工智能生成整篇成果及参考文献。
提醒六:在同行评议中,反对使用人工智能技术撰写同行评议意见,不得将评议信息上传至未经评议组织者认可的工具平台。
提醒七:在科研活动中,如使用人工智能技术,应在注释、致谢、参考文献或附录等部分声明工具的名称、版本、日期及使用过程;反对未加声明直接使用。
提醒八:在选择人工智能技术时,应使用经国家备案登记的服务工具;反对滥用人工智能技术危害数据安全,侵犯知识产权,泄露个人隐私等。
院属各单位应依据上述提醒,结合本单位学科特点和学术惯例,开展必要的教育培训,引导科技人员和学生透明、规范、负责任地使用人工智能技术。
转载本文请联系原作者获取授权,同时请注明本文来自李东风科学网博客。
链接地址:https://wap.sciencenet.cn/blog-729911-1450759.html?mobile=1
收藏