jhsbj的个人博客分享 http://blog.sciencenet.cn/u/jhsbj

博文

大型语言模型在癌症诊疗决策中的整合应用

已有 1103 次阅读 2025-8-25 22:24 |系统分类:教学心得

     “大语言模型(像 ChatGPT 这类 AI)在癌症诊疗中怎么用、效果如何、有什么问题”?

     首先,这些AI能做什么:主要帮医生和患者处理临床信息,比如总结病历、把 CT/MRI 报告翻译成普通人能懂的话、解答癌症治疗或护理问题,还能辅助制定治疗方案、给患者科普知识。AI回答放疗、手术造口护理这类问题时,准确率甚至能赶上专家;翻译放射报告时,正确性和完整性也挺高。

但是,AI在癌症整体诊疗,全方位决策时,效果就没那么稳定:整体平均准确率只有76.2%,要是让它辅助诊断癌症,准确率只达到67.4%,不同AI研究结果差得也很多。比如用GPT-4诊断甲状腺癌准确率能到73.6%,但用GPT-3.5诊断脑胶质瘤准确率就只有30%。当然这也代表AI也在不断进步。 

当然AI在癌症临床领域应用的其他方面也还存在不少问。截至2024年5月,一项调查从4个权威数据库收集了7000多篇AI相关文章,最后筛选出56项符合要求的研究(涉及肺癌、乳腺癌等15种癌症),专门分析大语言模型在癌症诊疗里的应用情况、效果和风险。

研究认为:首先是评估方式太敷衍,大部分研究只靠数据自动打分,很少给医生或患者提供手动检查的机会,而且只关心“准确或不准确”,“合不合适”,几乎不考虑 “会不会有误导”“信息清不清晰”等这些关键性的安全问题;

二,是AI本身有短板,专业的癌症知识(比如罕见癌症、新疗法)在它的训练数据里覆盖不够,或数量不够,因此容易出错;还会出现“幻觉”,比如编造不存在的医学文献引用;

三,是研究广度有局限,37.5%的研究数据来自美国,其他国家尤其是低收入地区很少,而且很多研究没说清楚参与患者和医生的年龄、病情这些细节,结果不一定适用于所有医院;

四,是存在伦理和安全隐患,26.8%的研究数据中没说有没有通过伦理审查(比如保护患者隐私);AI也可能因为训练数据存在偏见,给少数群体的治疗建议不一定公平合适;而且要是AI给了错误建议导致医疗事故,责任该算谁的,现在还没说清楚。 

因此专家建议:需要建立开放的癌症数据库、制定统一的AI评估标准,让AI更靠谱;医生用AI时必须全程监督,不能完全依赖AI提供最终决策;还要让患者、医生都能参与到 AI的开发和测试里,重视安全和公平,目前AI只能当辅助工具,不能代替医生做最终医疗决定。 

如何规避人工智能的潜在风险? 

若想缓解生成式人工智能工具在“幻觉现象”(生成虚假内容)和偏见方面的问题,可参考以下策略:

1. 批判性评估人工智能输出内容

    与人类不同,人工智能系统还不具备思考能力或形成主观认知的能力。它们仅依据训练数据,通过算法机制运行,本身没有推理或反思的固有能力。因此,使用者必须以批判性眼光看待人工智能生成的内容,并用人类的判断力对其进行评估;

2. 丰富信息来源

    务必对人工智能生成内容的准确性进行双重验证。具体可通过咨询领域专家,或通过查阅文献,获取同行评审出版物等方式,交叉核对信息真伪;

3. 使用基于检索的工具

    部分生成式人工智能工具采用“检索增强生成”(Retrieval-Augmented Generation, RAG)架构。这类工具在生成输出内容前,会先从可信来源(如课程大纲、研究论文或案例的PDF文件)中检索相关信息。研究表明,RAG 技术能同时提升人工智能生成答案的事实准确性和用户对其的信任度;

4. 使用清晰且结构化的提示词

    人工智能输出内容的质量,与输入提示词的具体程度密切相关。模糊的提示词往往会导致答案模糊,甚至出现错误。你可以通过明确设定预期目标、为模型提供固定框架的方式降低这类风险。例如,要求人工智能逐步解释推理过程,就能暴露其中的逻辑漏洞或缺乏依据的主张。这种被称为“思维链提示”(Chain-of-Thought Prompting)的技术,已被证实能在复杂任务中提升人工智能输出的透明度和准确性。

5. 调整工具的“温度”参数

“温度”(Temperature)是一个控制AI模型响应随机性或创造性的参数。在支持调整该参数的工具中,设置较低的温度(如 0–0.3)会生成更聚焦、一致且符合事实的内容,尤其适合用于目标明确的提示词场景;而较高的温度(如 0.7–1.0)会促使模型生成更多样、更具想象力的响应,更适合头脑风暴、故事创作等开放性任务。(生成式AI里的所谓“温度”就是调控参数,就像给AI的“创作自由度”定规矩:调得低(比如0到0.3):AI会变得“保守又靠谱”,只挑最可能、最符合常识的内容输出,不瞎发挥。比如问它 “地球周长多少”,它会稳稳给出准确数据,不会乱编,适合需要精准结果的场景:如,查事实、写代码;调得高(比如0.7到1.0):AI会变得“放飞又灵活”,敢选不那么常见的内容组合,输出更有新意。比如让它编个科幻故事,它能想出更多新奇情节,适合头脑风暴、写创意文案这类需要想象力的活儿。本质就是通过“温度”控制AI的“冒险程度”:低温度少冒险保准确,高温度多尝试求多样。

关于“AI幻觉”问题:

{AI hallucinations, as defined by ChatGPT3.5 (August 16, 2023), "[...] refer to the generation of content that is not based on real or existing data but is instead produced by a machine learning model's extrapolation or creative interpretation of its training data. These hallucinations can manifest in various forms, such as images, text, sounds, or even video. AI hallucinations occur when a machine learning model, particularly deep learning models like generative models, tries to generate content that goes beyond what is has learned from its training data. These models learn patterns and correlations from the data they are trained on and attempt to produce new content based on those patterns. However, in some cases, they can generate content that seems plausible but is actually a blend of various learned elements, resulting in content that might not make sense or could even be surreal, dream-like, or fantastical."}---{“AI 幻觉”指“机器学习模型并非基于真实或现有数据,而是通过对训练数据的推断或创造性解读生成内容的现象。这种‘幻觉’可表现为图像、文本、声音甚至视频等多种形式。当机器学习模型(尤其是生成式深度学习模型)试图生成超出其训练数据范畴的内容时,就会出现‘幻觉’。这些模型从训练数据中学习模式与关联,并基于这些模式生成新内容;但在部分情况下,生成的内容可能看似合理,实则是对多种已学元素的拼凑,最终导致内容逻辑不通,甚至呈现超现实、梦境般或荒诞的特征。”}举例而言,例如,当要求AI提供“高胱氨酸尿症相关骨质疏松症”的相关信息时,AI生成了内容详尽的文档,并附带多个含 PubMed 编号的引文。但经事实核查发现,文档中的论文标题均为虚构。再如,在哥伦比亚广播公司(CBS)《60分钟》节目采访中,谷歌开发者谈及 AI的未来与“AI幻觉”:当要求谷歌AI撰写一篇文章并推荐五本书时,AI生成了五个看似真实的书名,但这些书名实则完全是虚构的。开发者将这类“幻觉”称为“充满自信的错误”。我本人曾在要求AI提供某个学术领域的学术论文时,多次获得的PubMed编号的看似极佳的所需论文题目,但到PubMed去查,根本是不存在的虚假信息,当时只是对AI能力有些质疑。现在知道这就是“AI幻觉”。 

    总之,生成式人工智能在癌症领域的优化教学、研究和医疗方式方面展现出巨大潜力。但必须牢记,这类工具可能会生成虚假信息,并放大有害偏见。尽管人工智能是强大的工具,但人类的判断和干预依然至关重要。通过人机协作,我们既能充分发挥人工智能的优势,也能有效规避其已知的局限性。

 Large language model integrations in cancer decision-making: a systematic review and meta-analysis.  npj Digital Medicine   (2025) 8:450 



https://wap.sciencenet.cn/blog-3302154-1499104.html

上一篇:AI小知识:Copilot、 ChatGPT、Grok4、豆包的核心差异是什么?
下一篇:医疗实践中人工智能幻觉的潜在风险
收藏 IP: 27.47.35.*| 热度|

4 宁利中 郑永军 王涛 许培扬

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-8-28 01:08

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部