段玉聪
DIKWP语义模型在医疗AI中的应用综述
2025-6-17 18:01
阅读:88

 

 

 

 

DIKWP语义模型在医疗AI中的应用综述

 

 

段玉聪

贡献者:弓世明

 

国际人工智能DIKWP测评标准委员会(DIKWP-SC)

世界人工意识协会(WAC)

世界人工意识大会(WCAC)

联系邮箱:duanyucong@hotmail.com

 

 

 

 

摘要

本综述将DIKWP(数据-信息-知识-智慧-意图)语义模型作为推进医学人工智能超越当前数据驱动方法的框架进行探讨。虽然现有医学AI系统往往如"黑箱"般缺乏语义理解,但DIKWP模型通过引入意图作为第五层,扩展了经典的数据-信息-知识-智慧层次结构,强调与临床目标和伦理考量的一致性。我们调研了DIKWP的理论基础及其在医疗保健领域的新兴应用,包括医患对话建模、临床自然语言处理和多模态健康数据融合。本综述分析了当前研究如何映射到DIKWP连续体,并提供了与主流医学本体(SNOMED CTUMLSHL7 FHIR)和智能临床决策支持系统(IBM WatsonInfermedica)的比较分析。虽然现有本体提供了广泛的领域知识,互操作性标准实现了数据交换,但大多数缺乏明确的意图对齐和情境智慧。基于DIKWP的方法展现了改进的可解释性、不确定性处理和目标导向推理能力。识别出的关键挑战包括知识获取与维护、符号与统计AI的集成、不确定性推理,以及将临床智慧嵌入AI推荐中。该框架为开发透明、情境感知的医学AI提供了有前途的蓝图,使其与人类价值观和临床意图保持一致,推进真正语义层面的诊断智能。

关键词: DIKWP语义模型;医学人工智能;语义建模;可解释AI;临床决策支持系统;医学本体;知识图谱;语义互操作性;诊断AI;意图驱动AI;医疗信息学;神经符号AI

1. 引言

近年来,人工智能(AI)在医疗保健领域取得了显著进展,从解读医学影像到推荐个性化治疗方案。然而,当前大多数医疗AI系统仍然是数据驱动的,通常作为缺乏更深层语义理解和透明度的"黑盒"运行。这一局限性引发了人们对将高层次知识和上下文整合到AI中的框架的兴趣。其中一个这样的框架是DIKWP模型,它通过添加意图作为第五个层次,扩展了经典的数据-信息-知识-智慧(DIKW)层次结构。通过将意图(知识使用背后的意向和目标)纳入层次结构,DIKWP模型承诺实现不仅分析数据,而且理解上下文、与人类目标保持一致并解释其推理的AI。本综述调查了DIKWP语义模型的理论基础及其在医疗保健中的应用,重点关注智能诊断系统。

我们首先介绍DIKWP框架及其与医疗AI的相关性。然后我们审视医疗语义建模的最新进展——包括本体、知识图谱和语义互操作性标准——以及医疗保健中的可解释AI技术。使用DIKWP作为组织透镜,我们评估当前研究努力如何映射到数据-信息-知识-智慧-意图连续体上。我们提供DIKWP与主流医疗本体(如FMASNOMED CTUMLSHL7 FHIR)和智能临床决策支持系统(如IBM Watson for OncologyInfermedica)的比较分析,突出在范围、结构、与意图的一致性、可解释性和互操作性方面的差异。识别了实现真正语义层面诊断AI的挑战和未来方向,包括知识获取、统计和符号AI的集成、不确定性处理,以及将临床智慧和意图嵌入AI推荐中。包含图表和表格来总结要点——例如,图1说明了扩展的DIKWP层次结构——比较表格对比了DIKWP与其他知识框架。最后,我们推荐适合发表语义诊断AI工作的高影响力期刊,特别是那些对AI驱动医疗保健和知识表示领域的综合综述文章或特刊持开放态度的期刊。

1:经典的DIKW金字塔(数据、信息、知识、智慧)。DIKWP模型通过第五层——意图,扩展了这一层次结构,代表指导智慧使用的目标和意向。在医疗AI中,这一附加层强调与临床目标和伦理考虑的一致性。

2. DIKWP模型:从数据到信息到知识、智慧和意图

2.1 DIKW金字塔的起源及扩展到意图

DIKW金字塔是信息科学中一个著名的模型,描述了从原始数据到更高意义层次的递进:信息(情境化和结构化的数据)、知识(可操作的信息或专业技能)和智慧(应用的知识、洞察力或合理判断)。Russell Ackoff1989年著名地讨论了这一层次结构,强调数据必须被处理成信息,解释成知识,并在上下文中理解以产生智慧。然而,原始的DIKW模型止步于智慧,没有明确包括应用该智慧背后的意图或目的。

DIKWP模型的引入是为了通过添加意图作为层次结构的顶点来填补这一空白。在DIKWP框架中,意图代表指导决策和行动的意向、目标或目的。形式上,这一模型中的意图可以定义为从输入到期望输出的语义映射——本质上是一个元组(输入,输出),它将数据、信息、知识或智慧情境化到一个目标中。换句话说,意图将知识和智慧与"这是为了什么目的而使用的?"这一问题联系起来。通过纳入意图,DIKWP层次结构承认,即使是最明智的决策也必须相对于利益相关者的目标和价值观来评估(例如,优先考虑患者的生活质量)。

2.2 DIKWP语义框架的结构

DIKWP模型提供了一个结构化的语义框架,连接多个认知"空间"或抽象层次。Duan等人的最新工作描述了DIKWP如何跨越至少四个相互关联的空间:

认知空间:人类感知、思想和推理过程的领域(认知主体如何感知和概念化数据)。

意识空间:意向、目标和主观体验的领域——本质上是意图所在的地方。

语义空间:一个人头脑中概念之间的意义和语义关系网络。例如,临床医生的语义空间将"心肌梗死"的概念与相关概念如"胸痛""肌钙蛋白水平"联系起来。

概念空间:系统用来表示现实的形式化领域知识(本体、概念、类别)。

DIKWP模型通过数据信息知识智慧意图的层次结构将这些空间联系在一起。数据是原始观察或符号;信息是组织化并赋予意义的数据(例如,带有其上下文注释的实验室测试结果);知识包含一般化的信息、规则或模型(如知道某些症状的特定组合表明特定疾病);智慧涉及判断——适当地选择和应用知识(例如,认识到哪些指导原则适用于不寻常的患者病例);意图确保整个过程由适当的目标驱动(例如,在决策中优先考虑以患者为中心的结果或伦理原则)。

关键地,DIKWP框架是意图驱动的。意识(意图)空间与认知和语义空间相互作用,影响知识的应用方式。通过将认知空间与意识空间联系起来,该模型旨在在智能系统中模拟类人的意识活动。这允许AI将领域知识与特定情境上下文结合起来,以目标导向的方式推理问题。本质上,DIKWP引入了一个反馈循环:意图指导数据/信息/知识的选择和使用,结果(应用的智慧)应该根据意图进行评估。如果结果不符合预期意图,推理过程必须调整——这是朝向人工意识推理的一步。

DIKWP的理论严谨性通过形式化构造得到进一步加强。Duan及其同事引入了诸如"关系定义语义的一切"RDXS)等概念,它将不完整、不一致和不精确的DIKWP资源映射到相互连接的语义图中。这本质上将传统知识图扩展为DIKWP图,能够编码主观和客观知识,以及不确定性。通过形式化表示不仅是事实(知识),还有该知识中的关系和空白/不确定性,DIKWP模型可以处理现实世界医疗数据和推理中常见的"三无"问题——不完整性、不一致性和不精确性。这在医疗保健中特别重要,信息可能是主观的(患者报告的症状)、不完整的(未进行测试)或不精确的(模糊症状),但仍必须做出决策。

总之,DIKWPAI提供了一个多层语义架构:数据和信息形成基础,知识和智慧实现理解和明智决策,意图使这些决策与预期目标和伦理考虑保持一致。这种综合方法与医疗AI高度相关,医疗AI必须整合来自多个来源的数据,应用临床知识,提供明智建议,并最终服务于以患者为中心的意图(治愈、舒适、经济有效的护理等)。下一节探讨了这一DIKWP模型在医疗保健环境中的应用,以及它与医疗语义和AI持续发展的关系。

3. DIKWP在医疗保健和智能诊断中的应用

尽管DIKWP是一个相对较新的概念模型,研究人员已经开始探索其在医疗保健中的应用,特别是在改善临床决策、医患互动和诊断推理方面。在本节中,我们调查在医疗领域利用DIKWP框架或原则的现有应用和研究。我们突出DIKWP对语义丰富性、双向理解和意图驱动分析的强调如何解决当前医疗保健AI系统中的一些挑战。

3.1 医患互动的语义建模

DIKWP在医学中的首个综合应用之一是MeiDuan2024年)关于建模医患对话和诊断差异的工作。这项研究的动机是观察到医生和患者之间的误解和不同心理模型经常导致挫折甚至争议。例如,患者可能对他们的疾病有一种心理图像,而医生有另一种理解,导致"诊断差异"MeiDuan收集了门诊医患对话的转录,并分析了以下情况的案例:(a)多个患者看同一位医生或(b)多位医生与同一患者互动。这些场景经常揭示不一致性:患者和医生有时对症状有不一致的期望或解释。

使用DIKWP框架,作者构建了医患互动的语义模型,明确表示每一方的数据、信息、知识、智慧和意图。他们定义了DIKWP内容模型(交换的外部表达,如口述症状或解释)和DIKWP认知模型(每一方的内部思维过程)。通过将对话映射到这两个并行的DIKWP堆栈(一个用于患者,一个用于医生),该方法可以突出不一致发生的地方——例如,患者就诊的意图可能是获得疼痛缓解,而医生的意图是诊断潜在病因;如果不被认识,这种差异可能导致紧张关系。

一个关键创新是诊断差异空间到DIKWP元素的语义双向映射。在实践中,这意味着观察到的任何差异(比如,患者认为医生对症状不重视,或两位医生给出不同诊断)都是根据DIKWP层次分析的:差异是因为数据(例如,患者忘记提及某事)、信息(对术语的不同解释)、知识(一方缺乏医学知识的一部分)、智慧(判断调用不同),还是意图(不同目标)?通过精确定位层次,模型可以应用适当的解决策略。例如,意图层面的不匹配(医生专注于疾病治愈,患者专注于生活质量)可能通过坦诚讨论目标来解决,而知识层面的差距(患者误解医学术语)可能通过提供信息/教育来解决。

他们还引入了意图驱动的语义融合技术来消除对话中的不确定性歧义。本质上,这种技术试图通过将差异与总体意图保持一致来调和差异。如果医生和患者有共同意图(例如,改善患者健康),AI模型使用这一点作为指导原则,以最好的方式解释模糊陈述或选择强调知识的哪些方面。这种方法改善了互动的透明度——所有外部和内部元素在DIKWP表示中都是明确的——并增强了双方的可解释性。在评估中,基于DIKWP的方法在准确捕获内容和处理对话中的不确定性方面优于传统的NLP或语义相似性方法。通过有效地"弥合医患之间的认知差距",该系统显示出缓解医疗争议和改善相互理解的前景。

总之,这一应用展示了DIKWP在双向交流环境中的力量。医疗保健不仅仅是数据或单向信息流;它是人与人之间的互动认知过程。DIKWP语义模型提供了一种新颖的方式来形式化和分析这种互动,导致改善的可解释性和信任。这与医学中可解释AI的推进密切一致——在这里,"AI"通过在语义上建模利益相关者的观点来促进人类利益相关者之间的可解释交流。

3.2 意图驱动的临床自然语言处理

DIKWP影响的另一个领域是临床文本的自然语言处理(NLP),特别是在电子病历(EMR)命名实体识别(NER)等任务中。Cui等人(2023年)开发了一个意图驱动的NLP模型,用于识别中文EMR中的临床实体。虽然不是完整DIKWP层次结构的明确实现,但"意图驱动"术语和方法表明与DIKWP原则的一致性。传统的NER模型通常纯粹关注文本模式和局部上下文,有时会遗漏医学术语的更广泛语义上下文。例如,"cold"一词可能指症状("冷感")、疾病(感冒)或是短语的一部分("感冒药"),天真的模型可能在没有上下文的情况下混淆这些。

Cui等人的SoftLexicon + RoBERTa + BiLSTM-CRF模型将医学术语的外部词典(SoftLexicon)与强大的语言模型(RoBERTa)和序列标记架构(BiLSTM-CRF)集成。意图驱动的方面来自于他们如何注入语义知识:词典为模型提供了关于已知医学术语及其可能含义的信息,确保模型对EMR中每个标记的表示都用意图相关的上下文(即,该标记如何有助于识别有意义的临床概念)丰富。通过这样做,模型避免了某些常见的分割错误,更全面地捕获实体。结果很强——在两个公共临床NLP数据集(CCKS 20182019)上,模型实现了94.97%85.40%F1分数,优于基准方法。这表明纳入语义上下文和潜在知识库(在这种情况下是词典)导致更准确的信息提取,最终有助于从原始文本构建更好的知识。

尽管作者没有详述DIKWP层次结构,我们可以在该透镜中解释他们的方法:原始EMR文本是数据;识别的实体及其标准化形式构成信息;将这些链接到知识库(疾病、症状等的词典)将它们嵌入到更大的医学知识上下文中;"意图驱动"的设计(使用词典指导模型)隐含地将模型的智慧——它专注于医学相关的区别——与创建高质量临床知识库从文本的意图保持一致。这是DIKWP在行动中的一个缩影:通过不将问题视为纯数据驱动(要标记的字符序列),而是注入更高层次的知识和对为什么准确NER很重要(构建可用的知识库)的理解,系统实现了优越的性能。它强调了即使在NLP子任务层面,考虑意图和上下文也会带来更好的结果。

3.3 健康洞察的知识融合

DIKWP框架启发了各种融合方法,其中异构数据或知识源被结合以得出健康洞察。例如,Huang2023年)开发了一个基于DIKWP转换的交互式智能表单填充系统,旨在识别语义偏见并实时协助用户。虽然我们的来源中细节稀少,但这个系统似乎通过理解用户输入背后的语义意图并防止偏见或错误来帮助用户填写表单(可能是医疗入院表单)——再次是意图驱动设计的一个例子(系统的意图是确保准确的数据捕获)。

另一个例子是Hu2023年),他应用DIKWP融合模型来分析医疗保健和健康数据与气象数据和心理健康指标的结合。这项有趣的研究表明,要真正理解一个人的福祉,可能需要融合身体健康数据(也许是活动水平、生命体征)、环境数据(天气条件)和心理数据(如抑郁分数)。DIKWP模型可能为将这些整合到统一语义框架中提供了蓝图——例如,将气象信息视为与情绪变化相关时成为知识的数据,并将意图定义为改善整体健康(例如,理解抑郁症状的触发因素)。虽然没有给出具体细节,但提及这项研究强调DIKWP正在医疗保健的多样化环境中尝试,超越直接临床遭遇,扩展到公共卫生和健康。

3.4 迈向基于DIKWP的临床决策支持

展望未来,DIKWP模型准备影响下一代临床决策支持系统(CDSS)。传统CDSS(如电子健康记录中基于规则的警报)主要在信息或知识层面操作——例如,"如果钾 > X,则警报高钾血症"。它们通常缺乏情境化警报的智慧(导致警报疲劳),当然也不考虑意图(如果临床目标改变,比如从治愈性护理到姑息性护理,系统不会调节其行为)。纳入DIKWP可能意味着根据当前临床意图调整其建议的CDSS。例如,意图感知的CDSS如果知道患者的目标是舒适护理,可能会抑制激进的治疗建议,从而将建议与在该上下文中构成"明智"行动的内容保持一致。

一个非常最近的发展(Mei & Duan2025年)直接解决了使用DIKWP人工意识在儿科中的人机交流。在儿科护理中,交流障碍很突出:幼儿无法充分表达症状(单向损伤),父母和医生可能相互误解(双向偏见)。作者模拟婴儿的认知过程(从概念的"不存在到存在"),因为它学习识别物体——本质上建模数据如何在婴儿的认知空间中变成信息然后知识。他们还将父母和医生之间的互动建模为DIKWP转换过程,将他们的交流映射到DIKWP空间,并处理他们称之为该互动中不完整性、不一致性和模糊性的"DIKWP三无问题"。这项工作表明创建基于DIKWP的医学中人类和AI之间双向语义交流渠道的雄心。AI不仅处理患者的数据;它积极尝试在DIKWP术语中重建患者(或父母)的认知状态,同样使其自己的"思考"对人类透明。这种人工认知同理心在儿科或心理健康等理解患者内在状态具有挑战性的环境中可能是革命性的。

总的来说,DIKWP在医疗保健中的当前应用——从改善医患对话和临床NLP到融合多模态健康数据——表明该模型不仅仅是学术性的。它提供具体好处:增强可解释性,处理不确定性,整合知识源,并使AI输出与人类期望保持一致。接下来,我们将这些发展置于医疗语义建模、互操作性和可解释AI的更广泛景观中,看看DIKWP如何作为统一框架。

4. 医疗语义建模、互操作性和可解释AI的进展

在医疗AI中向语义方法的推进是健康信息学和AI研究中更广泛趋势的一部分。在本节中,我们回顾三个相互关联领域的最新进展:(1)医学知识的语义建模和表示(包括诊断的本体和知识图谱),(2)健康数据交换的语义互操作性标准,以及(3)医疗保健中的可解释AI。这些进展提供了补充DIKWP愿景的基本背景和工具。我们将看到,这些发展中的许多旨在将AI从处理原始数据向编码知识和促进智慧推进——即使它们没有明确使用DIKWP术语。

4.1 医疗保健和诊断中的语义建模

本体和知识库:医学在使用本体和结构化知识库来建模临床现实方面有着悠久的传统。突出的例子包括解剖学基础模型(FMA)、SNOMED CTUMLS元本体。这些资源以人类和机器都能处理的形式捕获医学知识,使它们成为医疗保健语义建模的基石。

解剖学基础模型(FMA)是人体解剖学的领域本体,表示构成物理身体的实体和关系。它包含大约75,000个类(解剖概念)和超过210万个关系实例,如解剖结构之间的部分关系。通过提供一致的解剖学参考模型,FMA允许不同系统明确地引用,比如说,"左心室"。它通过形式定义任何处理成像或体格检查发现的诊断AI所需的解剖知识,解决了DIKWP的知识层。

SNOMED CT(医学系统化命名法临床术语)是最大且使用最广泛的临床本体之一。SNOMED CT包含超过350,000个具有基于形式逻辑定义的独特概念,组织在多个层次结构中(如疾病、程序、发现)。每个概念都有同义词,并通过关系链接(例如,"缺血性中风""中风"的一种类型,有发现部位某些"脑结构")。SNOMED CT在信息和知识层面操作:它为临床信息(诊断、症状等)提供标准代码,使不同系统能够相互理解,并通过其层次和属性关系嵌入大量医学知识。它被认为是多语言和多领域的,涵盖从疾病和干预到生物体和身体结构的一切。在语义诊断系统中,使用SNOMED CT意味着AI的输出和输入以共享的医学语言编码,促进推理和交流。

统一医学语言系统(UMLS)是链接许多不同词汇和本体的元本体。UMLS元本体包含来自100多个源词汇(包括SNOMED CTICDMeSHLOINC等)的超过100万个生物医学概念和500万个概念名称。UMLS为每个概念分配唯一标识符,并在术语中聚合同义术语。它还包括将概念分组为广泛语义类型(例如,"疾病或状况""药理物质")的语义网络,并定义它们之间的高级关系。UMLS是互操作性和知识集成的强大工具——它在信息/知识边界起作用,允许AI识别"MI""心肌梗死""心脏病发作"都指同一概念,并知道该概念是"疾病或综合征"的一种类型。对于语义建模,UMLS在自然语言处理和任何需要桥接多个数据源或编码系统的系统中是宝贵的。

除了本体,知识图谱已经成为关键技术。知识图谱本质上是实体(节点)及其关系(边)的网络,可以包含本体背景,但也包含事实实例数据。在医疗保健中,正在构建知识图谱来链接症状与疾病、患者与临床发现、基因与疾病等等。知识图谱的一个优势是它们在整合异构数据(结构化和非结构化)并启用对该集成知识的推理方面的灵活性。例如,医学知识图谱可以连接患者实验室结果(数据)到更高级别的概念,如诊断和治疗(知识),并允许图算法推断新连接或找到诊断的解释。

最近的文献强调了知识图谱和可解释AI之间的协同作用:知识图谱提供了一个可以更透明地进行推理的结构。RajabiKafaie2022年)的一项综述强调,知识图谱已被用于检测医疗保健错误信息、发现药物不良相互作用,并通过嵌入可解释性的领域知识来缩小AI模型与临床医生之间的差距。在诊断的上下文中,考虑将疾病与症状和风险因素链接的"鉴别诊断图"AI可以使用这样的图来生成诊断假设,并通过追踪图上的路径来解释其结论(例如,"患者有症状ABC,它们在知识图中连接到疾病X"——临床医生可以遵循的解释)。这种基于图的推理对应于从信息到知识,甚至到智慧,如果AI能够优先考虑最相关、上下文适当的路径。

诊断的语义建模:研究人员正在利用本体和知识图谱来实现更准确和可解释的诊断AI。例如,在罕见疾病诊断中,工具经常利用人类表型本体(HPO——表型异常的标准化词汇——来编码患者特征,然后将它们与数据库中的疾病定义匹配。这基本上是一种语义方法:患者的数据(临床发现)通过用HPO术语标记转化为信息,然后通过与已知疾病-表型关联进行比较转化为知识形式,产生可能疾病的排序列表(这是基于编译医学知识的智慧应用)。这样的系统已显示出改进捕获可能被纯数据驱动模式匹配遗漏的模糊诊断的能力。

另一个活跃领域是将基于知识的逻辑推理与机器学习结合使用。一种方法是将临床指南或诊断标准编码为形式规则(这是专家提供的知识/智慧),并使用它们来约束或后处理机器学习输出。例如,基于规则的系统可能确保AI"败血症"的预测得到感染存在加上其他败血症标准的支持。这些混合系统可以受益于DIKWP思维:规则编码专家智慧和意图(例如,"不要遗漏败血症"),而ML提供数据驱动的洞察;它们一起在DIKWP频谱上操作,产生既有数据基础又有知识一致性的决策。

总之,通过本体和知识图谱在医疗保健中的语义建模已经取得了显著进展。社区现在拥有大型、强大的知识资源(SNOMED CTUMLS等),并正在积极工作将这些整合到AI管道中。这将医疗AI从纯统计向知识驱动和上下文感知推进,与DIKWP从数据向知识和智慧提升的愿景一致。在DIKWP上下文中,这些本体和知识库提供K(知识),帮助结构化I(信息),甚至通过封装专家判断(例如,什么算作疾病,什么是发现)贡献W(智慧)。下一步是确保这些语义模型在实践中得到广泛使用,这将我们带到互操作性。

4.2 语义互操作性和标准(HL7 FHIR等)

由于医疗保健数据在许多系统(EHR、实验室系统、成像、个人健康设备等)中生成和使用,互操作性至关重要。语义互操作性意味着不仅可以在系统之间交换数据,而且数据的含义保持一致和明确。健康IT中的主要努力集中在开发标准和术语来实现这一点。DIKWP的较低层(数据、信息)是这里的焦点:我们希望数据作为结构化信息传输,可以馈入更高层次的知识和智慧,而不会被误解。

现代互操作性的一个基石是HL7 FHIR(快速医疗保健互操作性资源)。FHIR是使用现代网络技术(HTTPRESTful APIJSON/XML)构建和交换电子健康数据的标准。在FHIR中,医疗保健数据被组织成"资源"——模块化组件,如患者、观察、状况、药物等。每个资源都有定义的字段,并为关键属性使用编码值。例如,实验室测试的观察资源将有一个测试代码字段,其中代码可能来自LOINC(实验室术语),可能还有一个表示定性结果的SNOMED CT代码字段。

FHIR明确设计为通过鼓励使用共享词汇来结合结构互操作性(标准数据格式)与语义互操作性。Chatterjee等人(2022年)的一项研究显示了如何将HL7 FHIRSNOMED CT结合使用,以语义和结构集成的方式交换个人健康数据。他们开发了一个个人健康应用程序,从传感器和问卷中捕获数据,以FHIR JSON格式表示,并使用SNOMED CT代码描述观察和状况,从而允许数据流入EHR并在接收端正确理解。结果是一个可以与临床EHR系统通信而不会丢失数据或误解的连接个人健康记录。这强调FHIR +标准术语通过确保从一个系统传输的数据在另一个系统中成为信息而不丢失含义,实现了互操作性的语法和语义要求,保持了到知识的链条。在DIKWP术语中,它们确保从一个系统传输的数据在另一个系统中成为信息而不丢失含义,保持到知识的链条。例如,一个系统中的血压读数不仅仅是文本注释,而是具有编码含义的结构化FHIR观察,任何其他FHIR兼容系统都可以在上下文中解释(例如,理解它是以mmHg为单位的血压,患者是谁,何时测量等)。

术语系统是语义互操作性的基础。我们已经提到SNOMED CTUMLS作为知识资源;从互操作性角度来看,它们(连同其他如实验室测试的LOINC、诊断的ICD、药物的RXNORM)提供所有系统都同意的词汇。通过使用这些标准代码编码临床概念,不同的软件和组织确保他们指的是相同的实体。正如一个概述所述,临床术语提供了改善交换信息的一致性和准确性的通用词汇,减少错误并启用高级用途,如临床决策支持和大规模数据分析。例如,如果两家医院对糖尿病使用不同的内部代码,合并数据很困难;但如果两者都将其记录映射到SNOMED CT的概念"44054006(糖尿病)",则实现了共同理解——算法可以安全地合并来自两个来源的数据,比如说,为研究识别所有糖尿病患者。

历史上,HL7试图通过HL7 v3参考信息模型(RIM——所有健康信息的雄心勃勃的通用数据模型,它包含"实体""行为"、角色、参与等的抽象本体——强制执行语义互操作性。RIM在概念上是合理的,明确为字段使用SNOMED CT等术语,但它被证明过于复杂和不灵活,阻碍了采用。后继者FHIR采取了更实用的方法:更简单、粒度化的资源,对开发人员来说更容易,同时仍然利用底层相同的术语。FHIR的成功可以在其广泛采用中看到——许多国家和健康IT供应商现在使用FHIR作为共享患者数据的API基础(例如,面向患者的应用程序、健康信息交换等)。在美国,最近的联邦规则(ONCCures法案最终规则)要求EHR为数据访问提供FHIR API,这正在加速使用。

从语义诊断AI的角度来看,互操作性很重要,因为AI系统只能像它能摄取的数据和理解的上下文一样好。如果诊断算法可以通过FHIR无缝地从各种系统拉取患者的历史、实验室、药物,并且这些带有丰富的语义编码(如在SNOMED CT中编码的问题列表条目、在LOINC中编码的实验室测试等),那么算法的输入是高质量信息而不是混乱的原始数据。这减少了清理和解释数据所需的努力,并允许算法更直接地应用知识(例如,知道慢性肾病的SNOMED CT代码意味着药物剂量的某些约束)。此外,如果AI的输出以标准代码表达(例如,它使用SNOMED CT标识符标记状况),它可以很容易地集成回EHR或传达给其他系统,关闭互操作性循环。

语义互操作性还能够创建大型、联合的数据集来训练AI,因为当使用通用模型时,来自不同来源的数据可以汇集。这对于开发在医院间泛化的强大诊断模型至关重要。没有语义一致性,汇集数据可能由于定义不匹配而导致"垃圾进,垃圾出"

总之,由于FHIR等标准和SNOMED CT/LOINC等术语,我们比以往任何时候都更接近在医疗保健中实现语义互操作性。这确保AI系统在有意义的数据上操作,并可以无缝嵌入临床工作流程。在DIKWP内,可以说这样:我们在很大程度上解决了规模上的"D→I"(数据到信息)转换——我们可以从不同来源获取数据,并将其表示为具有约定含义的结构化信息。"I→K→W"转换中仍然存在挑战;即,将可互操作的信息转化为可操作的知识和明智决策是下一个前沿,这正是DIKWP等框架和可解释AI进展发挥作用的地方。

4.3 医疗保健中的可解释AI

医学中对可解释AIXAI)的需求随着AI模型的部署而增长。临床医生和监管机构越来越多地询问的不仅是"AI的预测是什么?",而是"为什么它做出那个预测?"。可解释性在医疗保健中对于信任、安全和伦理原因特别关键。可解释的AI系统可以改善临床医生对AI建议的接受度,协助教育和审核,并帮助避免可能由虚假相关性引起的错误。

可解释性可以在两个层面考虑:全局(模型总体如何工作,它通常考虑什么因素)和局部(为什么它为特定案例给出特定输出)。两者在医疗保健中都很重要。例如,全局解释可能是"这个败血症预测模型非常重视生命体征趋势和最近的实验室",而局部解释可能是"在这个患者中,模型被心率上升、血压低和白细胞计数高所警告"。为了有用,这些解释应该使用语义上有意义的概念——这直接与知识和意图驱动建模的想法联系。

可解释性的知识图谱:医疗保健中XAI的一个有前景的途径是使用知识图谱(KG)来结构化和呈现解释。KG固有地在语义层面操作:它们表示通常是人类可理解的实体和它们的关系(疾病、症状、因果关系、关联)。RajabiKafaie2022年)观察到,知识图谱可以通过提供AI可以遍历以证明其结论的结构化表示来作为解释的支柱。例如,如果AI诊断患者患有嗜铬细胞瘤,通过KG的解释可能看起来像:"患者的症状(阵发性头痛、出汗、心动过速)和实验室发现(高血浆间甲肾上腺素)根据医学知识图谱与嗜铬细胞瘤的已知表现相匹配",可能突出特定链接。这不仅告诉临床医生什么特征导致了诊断,而且将其基于已建立的医学知识(已知疾病概况)——增强信任。

知识图谱已被用于解释特定任务中的结果:例如,解释药物不良反应预测(通过在药理学KG中显示药物-蛋白质-通路-副作用链),或反击错误信息(通过在医学事实图中追踪声明到信誉来源)。在临床环境中,基于KG的方法也可能有助于治疗建议:像Watson for Oncology(稍后讨论)这样的AI试图通过引用临床试验和指南来证明其化疗建议——有效地指向外部知识源作为解释。我们可以将那些引用视为知识图遍历的简单形式(从患者到推荐治疗节点,然后到支持该连接的文献节点)。

除了KG,更传统的XAI技术正在医疗保健中应用:特征重要性评分(例如,SHAP值)来表明哪些变量影响了预测,从模板生成的自然语言解释,以及基于案例的推理(向用户显示类似的过去案例)。将这些与语义建模联系起来的是,当特征和案例以有意义的方式描述时,它们工作得更好。例如,列出"Feature_12 = 3.7"的特征重要性图表是无用的;一个说"血糖 = 250 mg/dL"的图表是有信息的。这再次强调了AI中领域知识和适当数据语义的需要——本质上,从原始数据特征向信息/知识特征提升。

医学可解释性中的一个关键概念是"语义透明度"。这意味着模型的内部概念应该与明确定义的医学概念一致,这些概念的操作化方式应该清楚。例如,如果AI模型内部有一个似乎在胸部X射线中检测"肺炎"的神经元,语义透明度将需要我们能够描述该神经元在寻找什么(例如,"肺炎典型的肺部不透明模式"),并且这对应于肺炎的临床概念。实现这一点通常需要将知识或约束注入模型(例如,设计模型明确预测可解释的中间临床特征)。这种方法非常符合DIKWP精神:不让模型发明自己的抽象特征(数据层模式),我们指导它学习信息和知识层特征(如已知的临床征象)。

可解释性的另一个维度是与"智慧"层对齐——本质上确保AI的推理模仿明智临床医生或专家可能使用的推理类型。这可以通过在机器学习之上分层的基于规则的系统或专家系统来辅助。例如,专家系统可以根据已知的医学公理验证机器预测("如果模型说男性患者怀孕,那显然是错误的")。这样的规则是提炼的智慧,确保AI不输出无意义的内容,如果输出,解释("男性患者不能怀孕——模型输出被丢弃")是直接的。这再次强调混合方法:将统计学习(数据驱动)与符号推理(知识驱动)结合,以获得性能和可靠性。

实践中的可解释AI:一些现实世界的健康AI系统包含解释功能。例如,IBMWatson for Oncology为每个癌症治疗建议提供来自指南和期刊的支持证据列表。这旨在模仿医生可能如何引用临床研究来证明治疗计划。另一个例子是使用一致性研究,其中AI建议与专家小组进行比较,任何分歧都得到仔细审查——有效地将专家共识作为基准解释,看看AI在哪里偏离(这在评估Watson for Oncology中进行,显示与乳腺癌肿瘤委员会约93%的一致性)。尽管一致性本身不是解释,但高一致性可以让人放心AI"智慧"与人类智慧一致,不一致案例促使更深入调查(解释)为什么。

在研究领域,多模态解释的工作也很活跃——例如,为放射学AI结合文本和视觉解释(显示影响诊断的X射线区域以及文本理由)。这些努力承认不同用户偏好不同的解释格式。重要的是,任何文本理由生成都必须基于医学知识才能可信;否则,你冒着AI制造流利但不正确解释的风险。这就是语义框架(如拥有知识图或本体来提取事实)对保持解释准确性非常宝贵的地方。

将其与DIKWP联系起来:可解释AI关注使AI的知识和智慧透明。DIKWP为此提供了心智模型——可解释的AI应该让用户追踪数据如何变成信息(例如,"原始信号提取这些特征"),信息如何变成知识("这些特征适合肺炎因为..."),以及知识如何用智慧应用("考虑到患者的虚弱,肺炎是高风险的,证明住院合理")。DIKWP的意图方面也发挥作用:解释应该是意图驱动的——根据用户的需要量身定制。医生可能想要与患者不同的详细程度。意图感知的XAI可以调整其解释:对于临床医生,引用期刊证据;对于患者,使用更简单的语言,专注于诊断对他们意味着什么。

总之,医疗保健中的可解释AI在语义建模(本体、知识图谱)的帮助下取得了进展,仍然是激烈研究的领域。社区认识到,没有解释,AI将不会在医学中被信任或完全采用。DIKWP模型通过坚持AI系统从一开始就纳入更高层次的知识和意图来强化这一运动,这固有地使其更可解释。如果AI的内部推理更接近类人概念(如DIKWP鼓励的),解释它远比它在难以理解的向量中推理更可行。下一节将明确使用DIKWP来评估当前研究的位置,以及它如何匹配(或达不到)语义、意图驱动AI的理想。

5. DIKWP作为评估当前研究的框架

DIKWP模型为分类和评估医疗AI的最新技术状态提供了一个方便的透镜。在本节中,我们将代表性研究努力和系统映射到DIKWP层次,以了解当前方法在语义频谱上的进展。通过这样做,我们可以识别哪些方面(数据、信息、知识、智慧、意图)已经得到很好的解决,哪些仍然是空白。

5.1 数据和信息层:从原始数据到有意义的信息

医学中大多数传统机器学习应用在数据和信息层面操作。例如,一个深度神经网络从病理学切片中获取像素数据并输出癌症vs无癌症预测,本质上是一个复杂的数据信息映射。它从原始图像(数据)中提取模式(信息),但这些模式可能没有明确标记医学概念。类似地,使用手动输入症状(信息)建议诊断的早期诊断决策支持系统将信息映射到知识,但通常没有明确的知识库(更像模式匹配到过去案例)。

在确保AI以强有力的方式处理数据信息转换方面已经取得了进展。像输入标准化、使用结构化数据格式,以及具有临床意义的特征工程(如计算CHA2DS2-VASc评分从数据用作中风风险模型中的特征)等技术都反映了向信息层的提升。FHIR和标准术语在电子数据中的大量采用意味着许多AI模型可以从更丰富的信息表示而不是原始文本开始。例如,不是在文本中有单独的标记"心脏""攻击"NLP系统可能在预测之前将该注释映射到心肌梗死的概念ID(信息编码)。

然而,纯数据驱动的深度学习经常绕过明确的信息编码——它学习潜在表示,希望与有意义的信息相关。在DIKWP术语中,端到端深度学习从数据跳跃到可能被认为是隐式知识的东西,没有在明确信息处停留。这在模式识别任务中产生性能,但以透明度为代价。研究越来越多地试图重新引入信息——例如,合并突出输入特征(如某些实验室值或报告中的单词)的注意机制本质上显露了使用的信息。

5.2 知识层:纳入医学知识

几个研究流试图赋予AI知识。基于知识的系统(如专家系统或知识图谱)明确存储和使用医学事实、规则或关系。当前的混合AI方法将学习模型与知识源合并:例如,使用学习的患者状态向量但也检查基于知识的规则"如果抗生素开始且生命体征改善,则风险降低"的败血症预测算法。另一个例子是使用知识蒸馏,其中复杂模型的预测被已知医学约束约束或细化(一种将知识注入模型输出的形式)。

我们已经看到在神经网络训练中使用UMLS或本体的努力——例如,为NLP模型添加辅助损失,以确保其概念嵌入与UMLS语义类型一致(以便UMLS中的相似概念映射到接近的向量)。这样的方法有效地强制学习表示从纯数据模式编码已知关系(本体中症状及其父类)。这对应于将模型的内部状态从纯数据模式向DIKWP的知识层移动。

临床决策规则和指南本质上是成文的智慧,但在软件中实现时,它们至少将医学知识的子集付诸实施。今天许多EMR都有基于规则的警报(如"如果患者服用药物X并有状况Y,警报潜在相互作用")。这些是知识层干预(它们不从数据学习;它们从已知事实操作)。缺点是刚性和假警报率——这就是为什么用数据驱动精度补充它们是需要的原因。

在覆盖范围方面,某些领域存在诊断本体(例如,遗传综合征的本体,或传染病推理网络),但涵盖所有诊断的综合形式化知识是难以捉摸的。SNOMED CT为疾病提供了其他概念的定义(如"缺血性中风"可能定义为由于缺血在大脑中的梗死)——这是知识,但在算法中使用它并不简单。像SNOMED推理这样的研究项目已经研究使用描述逻辑推理器推断新事实(如临床数据的一致性检查或从特定发现推断更一般的状况)。这些技术虽然强大,但没有在前线诊断AI中广泛部署,部分原因是它们可能计算昂贵且对数据质量敏感(缺失发现可能导致遗漏推理)。

可以说我们有大量的知识资源(教科书、数据库、本体),但将它们与AI模型桥接是一个持续的挑战。DIKWP鼓励这种桥接:知识不能与算法分离,而必须集成。像基于知识的神经网络(具有符号模块)或神经符号AI这样的技术是实现这种集成的前沿。早期成功包括使用知识图谱指导特征选择或推理的模型(如通过遍历药物-基因-疾病相互作用图推荐治疗)。

5.3 智慧层:情境和明智的决策制定

临床环境中的智慧意味着为特定上下文做出正确决策,即使它偏离一般知识。它涉及判断、伦理推理和考虑超越模式匹配的个体患者因素。实现"AI智慧"可以说是最困难的部分。

我们可以看看AI的一些缺点来说明智慧缺乏的地方。例如,ML模型可能为癌症推荐激进治疗,因为统计上它延长生命,但明智的临床医生可能不会为虚弱患者推荐它,因为生活质量权衡很差。当前AI通常不会考虑这种细微差别,除非它明确在类似案例和结果上训练(如果细微差别是微妙的或价值观驱动的,这是不太可能的)。有研究强化学习考虑患者特定的结果效用(如将患者偏好作为奖励函数的一部分)。这向意图和智慧移动,因为AI不仅仅在真空中优化临床结果,而是根据可能代表患者价值观的效用函数。

一些临床决策支持系统试图通过定制建议实现智慧形式。例如,如果警报可能不相关,警报可能被抑制(一些系统有自适应警报,学习临床医生通常覆盖哪些警报)。这种适应是朝向智慧的小步——从经验中学习在上下文中什么重要或不重要。

还有常识和因果推理的问题——智慧的元素。明智的决策者理解因果关系("治疗原因,而不仅仅是症状")并可以通过类比或广泛原则处理新情况。医疗保健中的AI研究开始探索因果推理,例如,从数据中学习因果图以区分相关性vs因果关系。如果AI能够辨别给患者A氧气改善并且他们存活,它不应该只是将氧气与存活相关;明智的AI会认识到氧气有帮助,因为它纠正低氧血症(因果链接)。一些工作使用因果图来增强预测模型,确保模型不被虚假相关性愚弄(如ICU机器导致死亡率,因为更病的患者得到它们;因果模型会调整严重性)。

当前状态:大多数AI系统不能说有真正的智慧。如果在隐含编码一些智慧的结果上训练,它们可以模拟其部分(如预测不仅诊断而且需要ICU的模型,从而间接学习严重性评估)。没有系统能可靠地做经验丰富的临床医生所做的那种整体推理,权衡多个竞争优先级和伦理考虑。这是DIKWP等框架指向我们的前沿——如何系统地将智慧纳入AI

5.4 意图层:与目标和意向的一致性

在主流医疗AI中,意图的明确建模可能是最新和探索最少的方面。将AI决策与人类目标保持一致是一个正在获得关注的话题(在AI伦理和安全中,通常称为"价值一致性")。在医疗保健中,一个明确的意图是患者福利,但这如何转化为特定目标可能有所不同(治愈vs护理,长寿vs生活质量等)。

一些健康AI应用确实有内置的意图定义:例如,像Infermedica症状检查器这样的分诊系统有将患者引导到正确护理水平的意图(自我护理vs医生访问vs急诊室)。系统所做的一切——它询问的问题,最终建议——都与该意图一致。如果用户的答案表明可能危及生命的东西,意图("安全")触发结果"去急诊室",即使严重疾病的统计可能性是中等的。Infermedica的系统知道何时停止询问问题,因为其意图不是完美诊断,而是安全决定处置。该停止标准有效地编码了足够好的意图智慧:一旦收集足够信息满足分诊目标,更多问题不会增加价值,甚至可能混淆。这是意图驱动行为的简单但真实例子。

IBM Watson的肿瘤学系统缺乏患者个人意图的明确表示,这是一个批评——它倾向于基于一般疗效数据推荐治疗,不总是与个体患者愿望或细致目标一致(导致有时被认为不安全或不适当的建议)。意图感知的Watson可能如果"意图"参数是,比如说,姑息护理vs治愈意图,会修改其建议。早期Watson中没有清楚表示该区别的东西,这就是为什么它可能推荐激进疗法,即使在专家发现不适当的案例中。

在研究中,WAKE项目(世界阿凡达知识引擎)和人工通用智能的倡议谈论将目标层次和驱动整合到AI中。应用于医学,可以想象一个AI医生代理,它有明确的目标,如"最大化患者的健康调整生命年",受"不伤害""尊重自主权"约束。这些将作为指导所有决策的意图,可能通过推理引擎中的效用函数或一组伦理约束实现。我们远未完全实现这一点,但概念上DIKWP鼓励朝那个方向思考。

最近的出版物,如"世界人工意识协会白皮书——DIKWP和人工意识"2024年)和后续工作(Mei & Duan 2025年)建议将意图纳入AI认知的框架。他们讨论合并认知和意识空间,以便AI的认知过程由意图空间指导并通过意图空间可解释。在实际术语中,AI可能有一个可以调整的动态目标:例如,在医疗紧急情况下,意图可能简化为"不惜一切代价稳定生命体征"(所以AI可能忽略不太紧急的数据),而在长期护理中,意图可能是"避免住院"(所以AI的建议权衡该偏好)。

我们在个性化医学中看到这一点的早期glimpses:如果给定患者特定目标的正确参数,基于患者特定目标优化药物选择的AI(如最小化副作用,因为患者优先考虑生活质量)。多目标优化算法可以处理这样的任务。DIKWP添加的是语义清晰性——确保意图明确表示并影响处理的每个层次。

总之,将当前景观映射到DIKWP:数据/信息处理很强并通过标准和NLP变得更强;知识集成是部分的,通过本体和混合AI改善;智慧是新生的,有一些上下文感知和早期因果推理但不是一般的;意图一致在很大程度上是开放前沿,有几个领域特定例子(分诊等)但没有广泛解决。这种分析有助于精确指出未来方向,我们接下来讨论。

在此之前,我们在表1中提供DIKWP与其他关键框架和系统在范围、结构、意图一致性、可解释性和互操作性方面的比较摘要。这将进一步澄清DIKWP相对于今天使用的主流方法的位置。

1. DIKWP模型与选定医疗本体/标准和CDSS平台的比较

框架/系统

范围和领域

知识结构

意图的纳入

可解释性支持

互操作性水平

DIKWP模型

通用,跨领域认知框架(不限于一个医疗领域)。

多层语义模型(数据信息知识智慧意图)链接认知、语义和概念空间。

——核心特征。明确建模意向/目标;意图驱动数据/知识的解释。

高可解释性潜力:设计上强制每个层次的透明映射(例如,外化内部推理作为DIKWP内容)。仍然是实验性的,但证明在医患建模中改善可解释性。

目前是概念框架;不是数据交换标准。互操作性取决于将DIKWP与现有标准集成(提议的DIKWP图可以包含其他本体)。尚不是行业标准,但原则上可以统一多源知识。

SNOMED CT(本体)

临床医疗保健领域(非常广泛:疾病、发现、程序、解剖等)。

具有>350k概念、形式关系(ISA层次和定义属性)的多层次本体。许多概念的DL逻辑定义。

否。提供术语和定义,但没有用户意图或上下文的概念——它是参考术语。意图在SNOMED外部(取决于实现者如何使用它)。

间接支持可解释性:使用SNOMED代码可以使AI的输入/输出对临床医生可理解(例如,输出诊断代码而不是抽象向量)。SNOMED本身不解释推理,但其层次可以用于追踪"为什么"(例如,发现意味着疾病)。

高(语义互操作性):SNOMED是临床数据编码的全球标准。在EHR中广泛使用;存在到其他术语的映射。使编码数据在系统间的一致解释成为可能。完全使用需要许可证。

UMLS(元本体)

生物医学领域聚合器(包含100+词汇,广泛生物医学范围)。

链接不同本体的元本体;~100万概念统一为语义类型。提供127个高级类型的语义网络(例如,疾病、药物)。

否。UMLS是链接术语的工具——它不编码目标或使用上下文。

支持技术可解释性:帮助NLP系统将模糊术语映射到概念,使输出更清楚。UMLS语义网络提供概念类别的广泛解释,但它不是面向用户的解释。

高:UMLS经常是互操作性的"罗塞塔石碑"。通过链接术语,它使使用不同代码的系统能够在它们之间翻译。语义网络在源之间提供一致的分类。在NLP和数据集成管道中广泛使用。

HL7 FHIR(标准)

健康数据交换标准,领域=所有医疗保健记录保存(临床、管理等)。

具有~150种资源类型的结构化数据模型(患者、观察、状况等)。定义字段并为值使用术语(SNOMEDLOINC等)。没有内置的临床知识本体,但资源有语义结构(例如,Observation.code)。

否(不在模型中)。FHIR是意图无关的;它是数据载体。(然而,它可以在特定资源中携带"意图"字段,如订单的原因,但那是领域数据,不是适应性意图)。

FHIR通过结构化数据改善透明度(结构化、标记)。它不解释决策,但通过结构化数据它启用可解释处理。(例如,使用FHIR,可以追踪哪些观察导致警报,因为每个部分都是可识别的)。

非常高(结构和语义互操作性):FHIR正成为交换健康记录的主导标准。通过使用通用数据格式和代码,它确保信息在系统间保持意义。被EHR供应商广泛支持,在某些司法管辖区要求互操作性。

IBM Watson for OncologyCDSS

肿瘤学治疗决策支持(专注于癌症护理)。最初为特定癌症(例如乳腺、肺)训练。

混合:在医学文献和患者记录上使用NLP,加上与专家策划的癌症治疗/指南本体。本质上是大型知识库+ ML评分。

部分。预期意图:推荐最佳治疗。然而,它没有明确考虑个体患者意图(如生活质量vs激进护理)——导致某些案例中不一致的建议。意图更多是机构的(提供循证治疗)。

中等:为其建议提供证据引用和基于指南的理由(例如,"因为患者的ER阳性状态推荐,由研究X支持")。这种循证解释是一个优势,尽管推理过程仍然有些不透明。失败(例如,不安全建议)揭示了如何解决冲突的透明度缺乏。

中等:Watson通过集成项目从EHR摄取数据,但它是专有的。它内部使用标准术语(例如,将患者数据映射到SNOMED/ICD,将药物映射到RxNorm),但互操作性依赖于每个医院的定制集成。不是通用的即插即用系统。

InfermedicaCDSS

一般初级护理和分诊(成人和儿科)。范围:~900种疾病,1800种症状,风险因素,实验室。专注于初始诊断和护理指导。

策划的医学知识库(疾病症状图,带概率)由医生构建。使用类似贝叶斯的推理引擎询问问题并更新可能性。

是(隐含地):系统的设计目标是分诊,所以它是意图驱动的,以确定适当的护理水平。推理过程在为该意图达到足够信心时停止。它不明确建模患者特定的生活目标,但它为安全优化(例如,对严重状况错误在谨慎一边)。

好:平台强调透明度——它有企业用户的医学解释模式,显示哪些发现导致哪种状况,它为患者使用简单语言。通过基于策划知识图,它可以解释,例如,"发烧和颈部僵硬引起对脑膜炎的关注。"它还发布验证研究并为清晰使用通用术语(某些映射到SNOMED CT)。

高:InfermedicaAPI可以与其他系统集成,并在可能的地方使用标准症状和疾病代码。他们已经将其概念映射到SNOMED CTICD以与EHR和健康记录互操作。作为云服务,它在全球使用,显示在连接到各种健康IT环境方面的多功能性。

 

1DIKWP语义模型与主流医疗本体/标准和智能诊断系统的比较概述。DIKWP在其多层语义范围和明确包含意图方面是独特的,而像SNOMED CTUMLS这样的已建立本体提供广泛的领域知识但没有内置的上下文或意图概念。像FHIR这样的标准确保数据和信息互操作性,但不指导该信息如何使用。智能CDSS平台(IBM WatsonInfermedica)说明了向知识集成和可解释性的部分移动——Watson利用知识库并提供证据引用,但缺乏个性化意图一致性;Infermedica使用策划知识图并专注于分诊意图,在其领域内产生更引导和透明的诊断过程。作为研究框架的DIKWP旨在结合这些优势:广泛的知识集成、可解释性、互操作性(通过包含现有标准),最重要的是,确保AI的行动与医疗保健环境中的预期意图一致。

6. 语义级诊断AI的挑战和未来方向

实现语义级、意图驱动诊断AI的愿景面临众多挑战。在本节中,我们概述关键障碍并提出未来研究方向,为清晰起见按DIKWP层次结构:

数据和信息挑战:尽管互操作性有所改善,数据质量和完整性仍然是主要问题。AI系统仍然经常遇到缺失数据、错误条目或难以解析的非结构化注释。未来系统将需要更强大的NLP和数据插补方法来填补空白并将自由文本转换为结构化信息。另一个挑战是实时数据集成——为了AI在床边发挥作用,它必须持续同化来自各种设备的新信息(生命体征、实验室)以标准格式。像流式FHIR接口和IoMT(医疗物联网)标准这样的努力是有前景的。确保这大量数据被转换为有意义的信息(而不是噪音)将需要上下文感知过滤——DIKWP更高层次决定给定手头意图什么数据相关的潜在角色。

知识获取和维护:为AI构建和维护医学知识库是资源密集的。医学领域持续发展(新疾病、新治疗、更新指南),所以语义模型必须保持最新。手动策划(如Infermedica医生团队所做的)产生高质量知识,但不容易扩展。另一方面,自动知识提取(从文献进行文本挖掘)可能产生错误或虚假关联。需要混合方法:使用NLP和机器阅读提议知识更新,然后让专家审查它们。像生活临床指南或自动文献监督这样的倡议可能馈入AI知识库,以便例如,AI的本体知道"COVID-19"或新药物,一旦证据出现。此外,创建机器可读指南(也许以AI可以摄取的形式语言)将直接将专家知识注入AI推理。DIKWP模型可以将此框架为馈送知识和智慧层:指南本质上是浓缩的智慧,应该指导AI决策。未来CDSS可能有一个不断检查其建议与最新指南知识(指南作为"意图"代理,例如,意图=遵守最佳实践)的组件。

整合知识和数据驱动AI:弥合符号知识和统计学习之间的差距是关键研究前沿。纯基于规则的系统缺乏适应性,而纯ML系统缺乏透明度,有时缺乏医学正确性。神经符号AI寻求通过让神经网络与知识图或规则引擎接口来结合这些。在诊断环境中,一个有前景的方向是使用知识图为ML模型生成特征(例如,存在相关症状的计数,或连接患者发现到疾病的图中的路径长度)。另一个是在学习期间使用逻辑约束(例如,确保模型的输出不违反已知的医学真理)。确保DIKWP知识层真正告知数据/信息处理层可能涉及开发可以作为其训练目标的一部分消费本体的新算法。像KG-BERT(在BERT模型中使用知识图上下文)和在潜在空间中嵌入生物医学本体这样的努力是初步步骤。未来可能看到可以即时查询知识源的AI代理:例如,如果AI不确定诊断,它可能自动咨询医学数据库或甚至最新发表的研究(类似于人类医生如何进行文献搜索)。这需要自然语言理解和推理的进步,将AI"问题"与文本答案连接——但大型语言模型(LLM)在消化医学文本方面已经令人惊讶地好,尽管有幻觉的危险。通过检索增强生成将LLM与可信知识对齐(从审查知识库提取事实)可能产生既知识渊博又可解释的AI咨询(因为它们可以引用其来源)。

不确定性下的推理:诊断AI必须经常在不完整、模糊数据下操作——DIKWP医患建模工作中强调的一点,它引入了处理不确定性和差异的方法。处理不确定性部分是技术挑战(强大的概率推理,模型中更好的不确定性量化),部分是沟通挑战(向用户表达不确定性)。未来系统应该有诊断的校准概率,并能够以有意义的方式说"我不确定"。它们也可能建议什么额外信息最有价值——固有的语义任务(识别哪些缺失数据片段最能区分可能诊断)。这与主动学习或症状检查器中的最优问题生成相关。研究可以建立在像Infermedica动态询问这样的方法上,使用由疾病-症状关系知识模型指导的信息增益计算。另一个相关方向是融合主观和客观数据——患者经常提供难以解释的主观报告(例如,疼痛水平)。DIKWP明确合并主观(认知空间)和客观(概念空间)元素,建议未来AI可能将患者感知建模为实体本身(例如,区分"患者报告症状X""临床医生观察征象Y"并知道如何处理差异)。量化由这种差异产生的不确定性(如Mei & Duan工作中暗示的"DIKWP不确定性方差框架")是发展的丰富领域。

人机交互和智慧:将AI引入临床工作流程意味着它必须与人类(医生、护士、患者)合作而不是替代他们。这里的一个挑战是用户界面和体验——如何向用户呈现语义信息和解释而不造成过载。相关挑战是校准信任:医生应该在AI正确时信任它,但也能够在需要时覆盖或质疑它。如果AI提供建议以及DIKWP结构化解释(数据信息知识路径),医生可以更有效地评估它。未来方向包括个性化AI解释:初级医生可能需要解释中更多教育细节,而不是专家。也许AI可以检测用户的专业水平(意图:教育vs决策支持)并相应调整。智慧的另一个方面是纳入伦理和社会价值观。例如,如果AI算法了解到某些群体历史上有不同结果,它应该明智地确保它不延续偏见(意图:公平)。在医疗保健中算法公平性有增长的工作;将其与语义知识结合可能意味着明确建模受保护属性并理解其因果作用(例如,认识到医学环境中的种族可能是社会决定因素的代理而不是生物因素)。明智的AI可能说,"我预测更差的结果,但贡献因素是社会经济的;也许需要的干预是社会支持而不是医学升级"——这将是意图(改善患者整体福祉)与看到超越临床数据的智慧的一致。

验证和泛化:为了语义AI被信任,它需要严格验证。与简单分类器不同,语义AI可能涉及复杂管道(NLP+推理+知识检索)。每个组件和整个系统需要在多样化场景上测试——包括测试其"智慧"的边缘案例。未来工作应该包括AI临床医生的模拟环境,其中各种临床场景(甚至罕见的)可以投向AI看它如何响应。这可能类似于AI的飞行模拟器,可能使用合成患者数据或病理生理学动态模型。此外,当AI开始处理更高级推理和意图一致时,评估必须超越准确性;它应该评估一致性、安全性、用户满意度和结果影响等内容。例如,解释其推理的AI是否导致比不解释的AI更好的临床医生决策和患者结果?早期研究表明解释可以改善提供者接受度,但需要更多经验证据。监管机构(FDA等)也在为AI评估发展框架,可能需要展示透明度和与预期用途的一致性才能获得批准——有效地要求关注类似DIKWP的属性(知识和意图)。

迈向医学人工通用智能(AGIDIKWP模型已与朝向AGI的步骤联系,因为它不仅处理任务特定行为,而且处理集成认知框架。实现医学AGI意味着可以流畅地在任何医学任务的所有DIKWP层次中移动的AI——从阅读研究(数据)到更新其知识库,到用智慧和一致意图建议案例。虽然这仍然是长期愿望,每个赋予AI更多知识、上下文和适应性的研究都是朝那个方向的移动。我们可能看到中间系统——高度先进的窄AI——例如,纵向跟踪患者、帮助协调护理的"医疗礼宾AI",对该患者的历史(信息)、医学知识和患者个人健康目标(意图)有深刻理解。实现这样的系统将涉及跨领域合作:医学专家、知识工程师、AI伦理学家、认知科学家(用于建模类似于人类专家的推理)和来自最终用户的广泛反馈。

总之,语义诊断AI的未来将由我们如何克服这些挑战来塑造。DIKWP模型提供指导哲学:不要止步于数据。我们必须确保我们的AI通过信息和知识进步,通过经验和专家输入获得智慧,最重要的是,由在医疗保健中重要的意图指导——治愈患者、减轻痛苦,并与个人价值观和社会伦理保持一致。通过在我们的研究和开发努力中系统地解决DIKWP金字塔的每一层,我们接近不仅聪明而且真正理解和值得信赖的AI

7. 结论

语义建模和知识驱动方法正在迅速成为下一代医疗人工智能不可或缺的组成部分。在这篇综述中,我们探讨了DIKWP语义模型——数据、信息、知识、智慧、意图——作为统一框架来审视这些发展。DIKWP模型鼓励我们将医疗AI从当今主要以数据为中心的算法提升到明天的意图感知认知系统。

我们调研了DIKWP概念的应用:从建模医患对话的微妙之处到增强临床文本挖掘和融合多模态健康数据。我们总结了医疗本体、语义互操作性和可解释AI的进展,注意到这些为DIKWP各层提供了构建模块。像HL7 FHIRSNOMED CT这样的标准在许多场景中已经很大程度上解决了数据到信息的转换,而知识库和图谱正在将领域专业知识注入AI中,以改善诊断推理和透明度。可解释性技术使AI的中间推理过程更加可见,有效地揭示了AI正在使用的信息、知识,有时还包括智慧。

DIKWP与主流本体和临床决策支持系统(CDSS)平台进行比较,揭示了互补的优势和差距。传统本体(FMASNOMEDUMLS)提供了广泛的领域知识——这对知识层至关重要——但它们本身并不包含智慧或意图。像IBM WatsonInfermedica这样的智能CDSS展示了精心策划的知识和以意图为焦点的设计(如Infermedica的分诊功能)如何产生强大的系统,但它们在适应上下文和个体目标方面也面临挑战。DIKWP通过明确要求最后一步来区别于其他方法:以透明的方式将AI的行动与预期意图联系起来。

我们识别了在规模化实现语义化、意图驱动的诊断AI时必须解决的众多挑战:从数据质量、知识集成和不确定性处理等技术问题,到嵌入智慧、与患者和医疗提供者目标保持一致、维护最新医学知识等更高层次的关切。解决这些问题不仅需要算法的渐进式改进,还需要整体设计——这正是DIKWP所倡导的。这还需要广泛的验证,也许还需要新的指标来评估成功(例如,解释质量或目标一致性的衡量标准)。

尽管存在挑战,但发展轨迹是明确的。医学既是科学也是艺术,需要能够处理意义而不仅仅是模式的AIDIKWP模型及其相关研究工作代表了这个方向上的重要一步——旨在创建能够像临床医生一样推理、像值得信赖的同事一样沟通、并适应每个患者独特情况和需求的AI。在实际应用中,符合DIKWP的诊断助手可能在未来会采集患者的所有数据(实验室检查、症状),通过医学知识的视角进行解释(也许注意到"这三个发现结合在一起通常表明疾病X"),应用智慧(考虑患者的年龄、合并症、生活方式等,也许排除可能弊大于利的侵入性检查),并提出与患者意图一致的计划(例如,专注于生活质量)。它会在每个步骤都提供解释("我注意到这些症状(信息),这表明这种疾病(知识)。考虑到您避免住院治疗的优先考虑(意图),我建议门诊治疗。")。实现这一愿景将是信息学和AI社区的持续旅程。

总之,DIKWP语义模型作为指导医疗AI发展走向更大理解力、透明度和人机一致性的宝贵蓝图。通过确保我们的系统从数据进展到信息、知识和智慧——所有这些都由明确的意图指导——我们可以创建不仅回答临床问题,而且以可解释、上下文感知和与医疗保健最终目标一致的方式进行回答的AI:改善人类福祉。这里回顾的研究为这样的AI即将到来提供了乐观的前景,并强调了实现这一目标所需的跨学科努力。

参考文献

[1] Shuroug A Alowais, Sahar S Alghamdi, Nada Alsuhebany, et al. "Revolutionizing healthcare: the role of artificial intelligence in clinical practice". In: BMC medical education 23.1 (2023), p. 689.

[2] Thomas Davenport and Ravi Kalakota. "The potential for artificial intelligence in healthcare". In: Future healthcare journal 6.2 (2019), pp. 94–98.

[3] Eugenio De Corso, Gianluca Furneri, Daria Salsi, et al. "Cost–utility analysis of dupilumab for the treatment of chronic rhinosinusitis with nasal polyps (CRSwNP) in Italy". In: Journal of Personalized Medicine 12.6 (2022), p. 951.

[4] Molly Bekbolatova, Jonathan Mayer, Chi Wei Ong, et al. "Transformative potential of AI in healthcare: definitions, applications, and navigating the ethical landscape and public perspectives". In: 12.2 (2024), p. 125.

[5] Junaid Bajwa, Usman Munir, Aditya Nori, et al. "Artificial intelligence in healthcare: transforming the practice of medicine". In: Future healthcare journal 8.2 (2021), e188–e194.

[6] Fei Jiang, Yong Jiang, Hui Zhi, et al. "Artificial intelligence in healthcare: past, present and future". In: Stroke and vascular neurology 2.4 (2017).

[7] Zahra Sadeghi, Roohallah Alizadehsani, Mehmet Akif Cifci, et al. "A review of Explainable Artificial Intelligence in healthcare". In: Computers and Electrical Engineering 118 (2024), p. 109370.

[8] Andreas Holzinger, Chris Biemann, Constantinos S Pattichis, et al. "What do we need to build explainable AI systems for the medical domain?" In: arXiv preprint arXiv:1712.09923 (2017).

[9] Yi Jie Wang, Wei Chong Choo, Keng Yap Ng, et al. "Evolution of AI enabled healthcare systems using textual data with a pretrained BERT deep learning model". In: Scientific Reports 15.1 (2025), p. 7540.

[10] Arun James Thirunavukarasu, Darren Shu Jeng Ting, Kabilan Elangovan, et al. "Large language models in medicine". In: Nature medicine 29.8 (2023), pp. 1930–1940.

[11] Yingtian Mei and Yucong Duan. "The DIKWP (Data, Information, Knowledge, Wisdom, Purpose) Revolution: A New Horizon in Medical Dispute Resolution". In: Applied Sciences 14.10 (2024), p. 3994.

[12] Rabaı Bouderhem. "Shaping the future of AI in healthcare through ethics and governance". In: Humanities and social sciences communications 11.1 (2024), pp. 1–12.

[13] Fan Li, Nick Ruijs, and Yuan Lu. "Ethics & AI: A systematic review on ethical concerns and related strategies for designing with AI in healthcare". In: Ai 4.1 (2022), pp. 28–53.

[14] Samuel G Finlayson, Adarsh Subbaswamy, Karandeep Singh, et al. "The clinician and dataset shift in artificial intelligence". In: New England Journal of Medicine 385.3 (2021), pp. 283–286.

[15] Andrew L Beam and Isaac S Kohane. "Big data and machine learning in health care". In: Jama 319.13 (2018), pp. 1317–1318.

[16] Carl Yang, Hejie Cui, Jiaying Lu, et al. "A review on knowledge graphs for healthcare: Resources, applications, and promises". In: arXiv preprint arXiv:2306.04802 (2023).

[17] Xuehong Wu, Junwen Duan, Yi Pan, et al. "Medical knowledge graph: Data sources, construction, reasoning, and applications". In: Big Data Mining and Analytics 6.2 (2023), pp. 201–217.

[18] Sandhya Nayak, Ashwini Amin, Swetha R Reghunath, et al. "Development of a machine learning-based model for the prediction and progression of diabetic kidney disease: A single centred retrospective study". In: International Journal of Medical Informatics 190 (2024), p. 105546.

[19] Julia Amann, Alessandro Blasimme, Effy Vayena, et al. "Explainability for artificial intelligence in healthcare: a multidisciplinary perspective". In: BMC medical informatics and decision making 20 (2020), pp. 1–9.

[20] Shahab S Band, Atefeh Yarahmadi, Chung-Chian Hsu, et al. "Application of explainable artificial intelligence in medical health: A systematic review of interpretability methods". In: Informatics in Medicine Unlocked 40 (2023), p. 101286.

[21] Ben Allen. "The promise of explainable AI in digital health for precision medicine: a systematic review". In: Journal of personalized medicine 14.3 (2024), p. 277.

[22] Cornelius Rosse and Jose LV Mejino Jr. "A reference ontology for biomedical informatics: the Foundational Model of Anatomy". In: Journal of biomedical informatics 36.6 (2003), pp. 478–500.

[23] Shaker El-Sappagh, Francesco Franda, Farman Ali, et al. "SNOMED CT standard ontology based on the ontology for general medical science". In: BMC medical informatics and decision making 18 (2018), pp. 1–19.

[24] Olivier Bodenreider. "The Unified Medical Language System (UMLS): integrating biomedical terminology". In: Nucleic Acids Research 32.Database issue (2004), pp. D267–D270.

[25] Saikat Basu, Arnav Das, Amit Saha, et al. "Fragqc: An efficient quantum error reduction technique using quantum circuit fragmentation". In: Journal of Systems and Software 214 (2024), p. 112085.

[26] Polat Goktas and Andrzej Grzybowski. "Shaping the future of healthcare: Ethical clinical challenges and pathways to trustworthy AI". In: Journal of Clinical Medicine 14.5 (2025), p. 1605.

[27] Daiju Ueda, Taichi Kakinuma, Shohei Fujita, et al. "Fairness of artificial intelligence in healthcare: review and recommendations". In: Japanese Journal of Radiology 42.1 (2024), pp. 3–15.

[28] Katrin Hansel, Sarah N Dudgeon, Kei-Hoi Cheung, et al. "From data to wisdom: biomedical knowledge graphs for real-world data insights". In: Journal of Medical Systems 47.1 (2023), p. 65.

[29] Kevin B Johnson, Wei-Qi Wei, Dilhan Weeraratne, et al. "Precision medicine, AI, and the future of personalized health care". In: Clinical and translational science 14.1 (2021), pp. 86–93.

[30] Murugan Subramanian, Anne Wojtusciszyn, Lucie Favre, et al. "Precision medicine in the era of artificial intelligence: implications in chronic disease management". In: Journal of translational medicine 18 (2020), pp. 1–12.

[31] David N Nicholson and Casey S Greene. "Constructing knowledge graphs and their biomedical applications". In: Computational and structural biotechnology journal 18 (2020), pp. 1414–1428.

[32] Barry Smith, Michael Ashburner, Cornelius Rosse, et al. "The OBO Foundry: coordinated evolution of ontologies to support biomedical data integration". In: Nature biotechnology 25.11 (2007), pp. 1251–1255.

[33] Robert Arp, Barry Smith, and Andrew D Spear. "Building ontologies with basic formal ontology". In: (2015).

[34] Hassan S Al Khatib, Subash Neupane, Harish Kumar Manchukonda, et al. "Patient-centric knowledge graphs: a survey of current methods, challenges, and applications". In: Frontiers in Artificial Intelligence 7 (2024), p. 1388479.

[35] Yong Shang, Yu Tian, Kewei Lyu, et al. "Electronic health record–oriented knowledge graph system for collaborative clinical decision support using multicenter fragmented medical data: design and application study". In: Journal of Medical Internet Research 26 (2024), e54263.

[36] Md Saiful Islam, Md Mahmudul Hasan, Xiaoyi Wang, et al. "A systematic review on healthcare analytics: application and theoretical perspective of data mining". In: 6.2 (2018), p. 54.

[37] Elias Hossain, Rajib Rana, Niall Higgins, et al. "Natural language processing in electronic health records in relation to healthcare decision-making: a systematic review". In: Computers in biology and medicine 155 (2023), p. 106649.

[38] Malek Elhaddad and Sara Hamam. "AI-driven clinical decision support systems: an ongoing pursuit of potential". In: Cureus 16.4 (2024).

[39] Cesar A Gomez-Cabello, Sahar Borna, Sophia Pressman, et al. "Artificial-Intelligence-based clinical decision support systems in primary care: A scoping review of current clinical implementations". In: European Journal of Investigation in Health, Psychology and Education 14.3 (2024), pp. 685–698.

[40] Himabindu Lakkaraju, Dylan Slack, Yuxin Chen, et al. "Rethinking explainability as a dialogue: A practitioner's perspective". In: arXiv preprint arXiv:2202.01875 (2022).

[41] Matthäus Zloch, Maribel Acosta, Daniel Hienert, et al. "Charaterizing RDF graphs through graph-based measures–framework and assessment". In: Semantic Web 12.5 (2021), pp. 789–812.

[42] William Rojas-Carabali, Rajdeep Agrawal, Laura Gutierrez-Sinisterra, et al. "Natural Language Processing in Medicine and Ophthalmology: A Review for the 21st-century clinician". In: Asia-Pacific Journal of Ophthalmology (2024), p. 100084.

[43] Conrad J Harrison and Chris J Sidey-Gibbons. "Machine learning in medicine: a practical introduction to natural language processing". In: BMC medical research methodology 21.1 (2021), p. 158.

[44] Katrin Klug, Katharina Beckh, Dario Antweiler, et al. "From admission to discharge: a systematic review of clinical natural language processing along the patient journey". In: BMC Medical Informatics and Decision Making 24.1 (2024), p. 238.

[45] Joshua Au Yeung, Anthony Shek, Thomas Searle, et al. "Natural language processing data services for healthcare providers". In: BMC medical informatics and decision making 24.1 (2024), p. 356.

[46] Kory Kreimeyer, Matthew Foster, Abhishek Pandey, et al. "Natural language processing systems for capturing and standardizing unstructured clinical information: a systematic review". In: Journal of biomedical informatics 73 (2017), pp. 14–29.

[47] Theresa A Koleck, Caitlin Dreisbach, Philip E Bourne, et al. "Natural language processing of symptoms documented in free-text narratives of electronic health records: a systematic review". In: Journal of the American Medical Informatics Association 26.4 (2019), pp. 364–379.

[48] Jacob Devlin, Ming-Wei Chang, Kenton Lee, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding". In: (2019), pp. 4171–4186.

[49] Thomas Wolf, Lysandre Debut, Victor Sanh, et al. "Transformers: State-of-the-art natural language processing". In: (2020), pp. 38–45.

[50] Anushka Gangal, Ayush Shrivastava, Nadia Mahmood Hussien, et al. "Natural language processing: A review". In: 2771.1 (2023).

[51] Aziliz Le Glaz, Yannis Haralambous, Deok-Hee Kim-Dufor, et al. "Machine learning and natural language processing in mental health: systematic review". In: Journal of medical Internet research 23.5 (2021), e15708.

[52] Adil Rajput. "Natural language processing, sentiment analysis, and clinical analytics". In: (2020), pp. 79–97.

[53] Chung-Hsien Chou, Phillip Sheu, Masahiro Hayakawa, et al. "Querying large graphs in biomedicine with colored graphs and decomposition". In: Journal of Biomedical Informatics 108 (2020), p. 103503.

[54] Asim Waqas, Aakash Tripathi, Ravi P Ramachandran, et al. "Multimodal data integration for oncology in the era of deep neural networks: a review". In: Frontiers in Artificial Intelligence 7 (2024), p. 1408843.

[55] Rawan AlSaad, Alaa Abd-Alrazaq, Sabri Boughorbel, et al. "Multimodal large language models in health care: applications, challenges, and future outlook". In: Journal of medical Internet research 26 (2024), e59505.

[56] Solbjørg Watland, Lise Solberg Nes, Elizabeth Hanson, et al. "The caregiver pathway, a model for the systematic and individualized follow-up of family caregivers at intensive care units: development study". In: JMIR Formative Research 7 (2023), e46299.

[57] Sunil Kumar Sharma, Mohammed Ibrahim Al-Wanain, Majed Alowaidi, et al. "Mobile healthcare (m-Health) based on artificial intelligence in healthcare 4.0". In: Expert Systems 41.6 (2024), e13025.

[58] Cansu Yuksel Elgin and Ceyhun Elgin. "Ethical implications of AI-driven clinical decision support systems on healthcare resource allocation: a qualitative study of healthcare professionals' perspectives". In: BMC Medical Ethics 25.1 (2024), p. 148.

[59] Geetha Mahadevaiah, Prasad Rv, Inigo Bermejo, et al. "Artificial intelligence-based clinical decision support in modern medical physics: selection, acceptance, commissioning, and quality assurance". In: Medical physics 47.5 (2020), e228–e235.

[60] Geir Thore Berge, Ole-Christoffer Granmo, Tor Oddbjørn Tveit, et al. "Machine learning-driven clinical decision support system for concept-based searching: a field trial in a Norwegian hospital". In: BMC Medical Informatics and Decision Making 23.1 (2023), p. 5.

[61] Reed T Sutton, David Pincock, Daniel C Baumgart, et al. "An overview of clinical decision support systems: benefits, risks, and strategies for success". In: NPJ digital medicine 3.1 (2020), p. 17.

[62] Yingtian Mei and Yucong Duan. "Bidirectional Semantic Communication Between Humans and Machines Based on Data, Information, Knowledge, Wisdom, and Purpose Artificial Consciousness." In: Applied Sciences (2076-3417) 15.3 (2025).

[63] Ananya Choudhury, Leroy Volmer, Frank Martin, et al. "Advancing Privacy-Preserving Health Care Analytics and Implementation of the Personal Health Train: Federated Deep Learning Study". In: JMIR AI 4.1 (2025), e60847.

[64] Nicola Rieke, Jonny Hancox, Wenqi Li, et al. "The future of digital health with federated learning". In: NPJ digital medicine 3.1 (2020), p. 119.

[65] Kenneth D Mandl, Daniel Gottlieb, and Joshua C Mandel. "Integration of AI in healthcare requires an interoperable digital data ecosystem". In: Nature Medicine 30.3 (2024), pp. 631–634.

[66] Anita Burgun and Olivier Bodenreider. "Accessing and integrating data and knowledge for biomedical research". In: Yearbook of medical informatics 17.01 (2008), pp. 91–101.

[67] Jose LV Mejino Jr, Augusto V Agoncillo, Kurt L Rickard, et al. "Representing complexity in part-whole relationships within the foundational model of anatomy". In: 2003 (2003), p. 450.

[68] Dennis Lee, Ronald Cornet, Francis Lau, et al. "A survey of SNOMED CT implementations". In: Journal of biomedical informatics 46.1 (2013), pp. 87–96.

[69] Peter MacIsaac, Donald Walker, Rachel L Richesson, et al. "Essential SNOMED: Simplifying SNOMED-CT and supporting Integration with Health Information Models." In: (2008).

[70] Harry Emerson, Matthew Guy, and Ryan McConville. "Offline reinforcement learning for safer blood glucose control in people with type 1 diabetes". In: Journal of Biomedical Informatics 142 (2023), p. 104376.

[71] Alexa T McCray, Anita Burgun, and Olivier Bodenreider. "Aggregating UMLS semantic types for reducing conceptual complexity". In: (2001), pp. 216–220.

[72] Daniel Gardner, Kevin H Knuth, Michael Abato, et al. "Common data model for neuroscience data and data model exchange". In: Journal of the American Medical Informatics Association 8.1 (2001), pp. 17–33.

[73] Elizabeth S Chen, George Hripcsak, Hua Xu, et al. "Automated acquisition of disease–drug knowledge from biomedical and clinical documents: an initial study". In: Journal of the American Medical Informatics Association 15.1 (2008), pp. 87–98.

[74] Payal Chandak, Kexin Huang, and Marinka Zitnik. "Building a knowledge graph to enable precision medicine". In: Scientific Data 10.1 (2023), p. 67.

[75] Lino Murali, G Gopakumar, Daleesha M Viswanathan, et al. "Towards electronic health record-based medical knowledge graph construction, completion, and applications: A literature study". In: Journal of biomedical informatics 143 (2023), p. 104403.

[76] Bilal Abu-Salih, Muhammad Al-Qurishi, Mohammed Alweshah, et al. "Healthcare knowledge graph construction: A systematic review of the state-of-the-art, open issues, and opportunities". In: Journal of Big Data 10.1 (2023), p. 81.

[77] Song Wang, Mingquan Lin, Tirthankar Ghosal, et al. "Knowledge graph applications in medical imaging analysis: a scoping review". In: Health data science 2022 (2022), p. 9841548.

[78] Yanjun Gao, Ruizhe Li, Emma Croxford, et al. "Leveraging medical knowledge graphs into large language models for diagnosis prediction: design and application study". In: Jmir Ai 4 (2025), e58670.

[79] Enayat Rajabi and Somayeh Kafaie. "Knowledge graphs and explainable ai in healthcare". In: Information 13.10 (2022), p. 459.

[80] Cynthia Rudin. "Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead". In: Nature machine intelligence 1.5 (2019), pp. 206–215.

[81] Marzyeh Ghassemi, Tristan Naumann, Peter Schulam, et al. "A review of challenges and opportunities in machine learning for health". In: AMIA Summits on Translational Science Proceedings 2020 (2020), p. 191.

[82] Sabrina Giguère, Laura Dellazizzo, Mélissa Beaudoin, et al. "Avatar intervention for cannabis use disorder in a patient with schizoaffective disorder: a case report". In: BioMedInformatics 3.4 (2023), pp. 1112–1123.

[83] Nur Yildirim, Hannah Richardson, Maria Teodora Wetscherek, et al. "Multimodal healthcare AI: identifying and designing clinically relevant vision-language applications for radiology". In: (2024), pp. 1–22.

[84] Fabien Arnaud, Cecile Pignol, Pierre Stéphan, et al. "From core referencing to data re-use: two French national initiatives to reinforce paleodata stewardship (National Cyber Core Repository and LTER France Retro-Observatory)". In: (2017).

[85] Joshua C Mandel, David A Kreda, Kenneth D Mandl, et al. "SMART on FHIR: a standards-based, interoperable apps platform for electronic health records". In: Journal of the American Medical Informatics Association 23.5 (2016), pp. 899–908.

[86] Duane Bender and Kamran Sartipi. "HL7 FHIR: An Agile and RESTful approach to healthcare information exchange". In: (2013), pp. 326–331.

[87] Rishi Saripalle, Christopher Runyan, and Mitchell Russell. "Using HL7 FHIR to achieve interoperability in patient health record". In: Journal of biomedical informatics 94 (2019), p. 103188.

[88] Clement J McDonald, Stanley M Huff, Jeffrey G Suico, et al. "LOINC, a universal standard for identifying laboratory observations: a 5-year update". In: Clinical chemistry 49.4 (2003), pp. 624–633.

[89] Clement J McDonald, Stanley M Huff, Jeffrey G Suico, et al. "LOINC, a universal standard for identifying laboratory observations: a 5-year update". In: Clinical chemistry 49.4 (2003), pp. 624–633.

[90] Stuart J Nelson, Kelly Zeng, John Kilbourne, et al. "Normalized names for clinical drugs: RxNorm at 6 years". In: Journal of the American Medical Informatics Association 18.4 (2011), pp. 441–448.

[91] Simon Liu, Wei Ma, Robin Moore, et al. "RxNorm: prescription for electronic drug information exchange". In: IT professional 7.5 (2005), pp. 17–23.

[92] Sancheng Peng, Lihong Cao, Yongmei Zhou, et al. "A survey on deep learning for textual emotion analysis in social networks". In: Digital Communications and Networks 8.5 (2022), pp. 745–762.

[93] Robert H Dolin, Liora Alschuler, Sandy Boyer, et al. "HL7 clinical document architecture, release 2". In: Journal of the American Medical Informatics Association 13.1 (2006), pp. 30–39.

[94] Songzi Liu, Tanzila Zaman, Barbara Edson, et al. "Analyzing the demographics of virtual care users". In: (2019), pp. 1710–1711.

[95] Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez, Javier Del Ser, et al. "Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI". In: Information fusion 58 (2020), pp. 82–115.

[96] Hans Eguia, Carlos Luis Sanchez-Bocanegra, Franco Vinciarelli, et al. "Clinical decision support and natural language processing in medicine: Systematic literature review". In: Journal of Medical Internet Research 26 (2024), e55315.

[97] Geert Litjens, Thijs Kooi, Babak Ehteshami Bejnordi, et al. "A survey on deep learning in medical image analysis". In: Medical image analysis 42 (2017), pp. 60–88.

[98] Eric J Topol. "High-performance medicine: the convergence of human and artificial intelligence". In: Nature medicine 25.1 (2019), pp. 44–56.

[99] Ben Allen. "The promise of explainable AI in digital health for precision medicine: a systematic review". In: Journal of personalized medicine 14.3 (2024), p. 277.

[100] Danielle Scharp, Mollie Hobensack, Anahita Davoudi, et al. "Natural language processing applied to clinical documentation in post-acute care settings: a scoping review". In: Journal of the American Medical Directors Association 25.1 (2024), pp. 69–83.

[101] Wen-wai Yim, Meliha Yetisgen, William P Harris, et al. "Natural language processing in oncology: a review". In: JAMA oncology 2.6 (2016), pp. 797–804.

[102] Ewoud Pons, Loes MM Braun, MG Myriam Hunink, et al. "Natural language processing in radiology: a systematic review". In: Radiology 279.2 (2016), pp. 329–343.

[103] Meixuan Song and Dong Liu. "International visualization analysis of research hotspots and development trends in the study of clinical decision support systems utilizing CiteSpace". In: Frontiers in Medicine 12 (2025), p. 1546611.

[104] Benjamin Shickel, Patrick James Tighe, Azra Bihorac, et al. "Deep EHR: a survey of recent advances in deep learning techniques for electronic health record (EHR) analysis". In: IEEE journal of biomedical and health informatics 22.5 (2017), pp. 1589–1604.

[105] Riccardo Miotto, Li Li, Brian A Kidd, et al. "Deep patient: an unsupervised representation to predict the future of patients from the electronic health records". In: Scientific reports 6.1 (2016), p. 26094.

[106] Andre Esteva, Brett Kuprel, Roberto A Novoa, et al. "Dermatologist-level classification of skin cancer with deep neural networks". In: nature 542.7639 (2017), pp. 115–118.

[107] Benjamin A Goldstein, Ann Marie Navar, and Rickey E Carter. "Moving beyond regression techniques in cardiovascular risk prediction: applying machine learning to address analytic challenges". In: European heart journal 38.23 (2017), pp. 1805–1814.

[108] Guergana K Savova, James J Masanz, Philip V Ogren, et al. "Mayo clinical Text Analysis and Knowledge Extraction System (cTAKES): architecture, component evaluation and applications". In: Journal of the American Medical Informatics Association 17.5 (2010), pp. 507–513.

[109] Mark Neumann, Daniel King, Iz Beltagy, et al. "ScispaCy: fast and robust models for biomedical natural language processing". In: arXiv preprint arXiv:1902.07669 (2019).

[110] Alvin Rajkomar, Eyal Oren, Kai Chen, et al. "Scalable and accurate deep learning with electronic health records". In: NPJ digital medicine 1.1 (2018), p. 18.

[111] Edward Choi, Mohammad Taha Bahadori, Jimeng Sun, et al. "Retain: An interpretable predictive model for healthcare using reverse time attention mechanism". In: Advances in neural information processing systems 29 (2016).

[112] Natalya F Noy, Nigam H Shah, Patricia L Whetzel, et al. "BioPortal: ontologies and integrated data resources at the click of a mouse". In: Nucleic acids research 37.suppl_2 (2009), W170–W173.

[113] Chen Liang, Qi Miao, Hong Kang, et al. "Leveraging patient safety research: efforts made fifteen years since to err is human". In: (2019), pp. 983–987.

[114] Yu Gu, Robert Tinn, Hao Cheng, et al. "Domain-specific language model pretraining for biomedical natural language processing". In: ACM Transactions on Computing for Healthcare (HEALTH) 3.1 (2021), pp. 1–23.

[115] Kexin Huang, Jaan Altosaar, and Rajesh Ranganath. "Clinicalbert: Modeling clinical notes and predicting hospital readmission". In: arXiv preprint arXiv:1904.05342 (2019).

[116] Amit X Garg, Neill KJ Adhikari, Heather McDonald, et al. "Effects of computerized clinical decision support systems on practitioner performance and patient outcomes: a systematic review". In: Jama 293.10 (2005), pp. 1223–1238.

[117] Kensaku Kawamoto, Caitlin A Houlihan, E Andrew Balas, et al. "Improving clinical practice using clinical decision support systems: a systematic review of trials to identify features critical to success". In: Bmj 330.7494 (2005), p. 765.

[118] Tiffani J Bright, Anthony Wong, Ravi Dhurjati, et al. "Effect of clinical decision-support systems: a systematic review". In: Annals of internal medicine 157.1 (2012), pp. 29–43.

[119] Jean-Baptiste Lamy. "Owlready: Ontology-oriented programming in Python with automatic classification and high level constructs for biomedical ontologies". In: Artificial intelligence in medicine 80 (2017), pp. 11–28.

[120] Matthew Horridge and Sean Bechhofer. "The owl api: A java api for owl ontologies". In: Semantic web 2.1 (2011), pp. 11–21.

[121] Ziad Obermeyer, Brian Powers, Christine Vogeli, et al. "Dissecting racial bias in an algorithm used to manage the health of populations". In: Science 366.6464 (2019), pp. 447–453.

[122] Irene Y Chen, Peter Szolovits, and Marzyeh Ghassemi. "Can AI help reduce disparities in general medical and mental health care?" In: AMA journal of ethics 21.2 (2019), pp. 167–179.

[123] Alvin Rajkomar, Michaela Hardt, Michael D Howell, et al. "Ensuring fairness in machine learning to advance health equity". In: Annals of internal medicine 169.12 (2018), pp. 866–872.

[124] Danton S Char, Nigam H Shah, and David Magnus. "Implementing machine learning in health care—addressing ethical challenges". In: New England Journal of Medicine 378.11 (2018), pp. 981–983.

[125] Effy Vayena, Alessandro Blasimme, and I Glenn Cohen. "Machine learning in medicine: addressing ethical challenges". In: PLoS medicine 15.11 (2018), e1002689.

[126] H Taherdoost and A Ghofrani. "Ai's Role in Revolutionizing Personalized Medicine by Reshaping Pharmacogenomics and Drug Therapy. Intelligent Pharmacy, 2, 643-650". In: (2024).

[127] World Association of Artificial Consciousness. White Paper of the World Association of Artificial Consciousness: DIKWP and Artificial Consciousness. Tech. rep. World Association of Artificial Consciousness, 2024. URL: https://www.researchgate.net/publication/382145183.

[128] Jonathan H Chen and Steven M Asch. "Machine learning and prediction in medicine—beyond the peak of inflated expectations". In: The New England journal of medicine 376.26 (2017), p. 2507.

[129] Nigam H Shah, Arnold Milstein, and Steven C Bagley. "Making machine learning models clinically useful". In: Jama 322.14 (2019), pp. 1351–1352.

[130] Mark P Sendak, William Ratliff, Dina Sarro, et al. "Real-world integration of a sepsis deep learning technology into routine clinical care: implementation study". In: JMIR medical informatics 8.7 (2020), e15182.

[131] Hugo Touvron, Thibaut Lavril, Gautier Izacard, et al. "Llama: Open and efficient foundation language models". In: arXiv preprint arXiv:2302.13971 (2023).

[132] Jason Wei, Yi Tay, Rishi Bommasani, et al. "Emergent abilities of large language models". In: arXiv preprint arXiv:2206.07682 (2022).

[133] Karan Singhal, Shekoofeh Azizi, Tao Tu, et al. "Large language models encode clinical knowledge". In: Nature 620.7972 (2023), pp. 172–180.

[134] Harsha Nori, Nicholas King, Scott Mayer McKinney, et al. "Capabilities of gpt-4 on medical challenge problems". In: arXiv preprint arXiv:2303.13375 (2023).

[135] Michael Moor, Oishi Banerjee, Zahra Shakeri Hossein Abad, et al. "Foundation models for generalist medical artificial intelligence". In: Nature 616.7956 (2023), pp. 259–265.

[136] Zeming Chen, Alejandro Hernandez Cano, Angelika Romanou, et al. "Meditron-70b: Scaling medical pretraining for large language models". In: arXiv preprint arXiv:2311.16079 (2023).

 

转载本文请联系原作者获取授权,同时请注明本文来自段玉聪科学网博客。

链接地址:https://wap.sciencenet.cn/blog-3429562-1490177.html?mobile=1

收藏

分享到:

当前推荐数:0
推荐到博客首页
网友评论0 条评论
确定删除指定的回复吗?
确定删除本博文吗?