|
3月28日,话题#防止DeepSeek乱编文献的方法#冲上热搜。记者注意到,用AI工具写论文“被坑”的经历,并非鲜见。
问AI一个问题,它给了你一个特别详细、丰富,看上去好有逻辑的答案。但当我们去核实时,却发现这些信息完全是虚构的?这就是著名的“AI幻觉”现象。AI幻觉指的是AI会生成看似合理但实际确实错误的信息,最常见的表现就是会编造一些不存在的事实或者细节。
据“科普中国”,造成AI幻觉问题的成因很多,例如:基于统计关系的预测;训练数据的局限性;过拟合问题,即因为记住了太多错误或者无关紧要的东西,从而让AI对训练数据中的噪声过于敏感;有限的上下文窗口;生成流畅回答的设计等等。近日,中国青年报邀请了3位专家学者,一起聊聊技术浪潮中如何守护年轻人的思辨能力。
(中国青年报 2025-03-28 05版)
如何应对AI幻觉呢?AI工具研究者田威提到,想要获得准确答案,提问方式很关键。与AI交流也需要明确和具体,避免模糊或开放性的问题,提问越具体、清晰,AI的回答越准确。总结成提示词技巧就是下面四种问法:
1.设定边界:“请严格限定在2022年《自然》期刊发表的研究范围内”;
示例:“介绍ChatGPT的发展历程”→“请仅基于OpenAI官方2022-2023年的公开文档,介绍ChatGPT的发展历程”
2.标注不确定:“对于模糊信息,需要标注‘此处为推测内容’”;
示例:“分析特斯拉2025年的市场份额”→“分析特斯拉2025年的市场份额,对于非官方数据或预测性内容,请标注[推测内容]”
3.步骤拆解:“第一步列举确定的事实依据,第二步展开详细分析”;
示例:“评估人工智能对就业的影响”→“请分两步评估AI对就业的影响:
1)先列出目前已发生的具体影响案例;
2)基于这些案例进行未来趋势分析”。
4.明确约束:明确告诉AI要基于已有事实回答,不要进行推测。
示例:“预测2024年房地产市场走势”→“请仅基于2023年的实际房地产数据和已出台的相关政策进行分析,不要加入任何推测性内容”。
在AI自己的答案中提到,可以通过指令约束、工具验证和人工审核三重保障,大幅降低AI虚构文献的风险。值得注意的是,它还将“人工审核”放到了“最后防线”的重要位置。
田威提醒,AI幻觉并非没有好处。有时候与其把AI幻觉当成缺陷,不如把它看作创意的源泉。在写作、艺术创作或头脑风暴时,这些“跳跃性思维”反而可能帮我们打开新世界的大门。
AI幻觉的本质——AI在知识的迷雾中,有时会创造出看似真实,实则虚幻的“影子”。但就像任何工具一样,关键在于如何使用。
归根结底,在这个AI与人类共同进步的时代,重要的不是责备AI的不完美,而是学会与之更好地协作。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-5-1 10:44
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社