YucongDuan的个人博客分享 http://blog.sciencenet.cn/u/YucongDuan

博文

基于DIKWP人工意识及语义数学的医疗问诊对话模拟

已有 410 次阅读 2025-4-8 08:48 |系统分类:论文交流

基于DIKWP人工意识及语义数学的医疗问诊对话模拟

段玉聪

人工智能DIKWP测评国际标准委员会-主任

世界人工意识大会-主席

世界人工意识协会-理事长

(联系邮箱:duanyucong@hotmail.com) 

摘要

本研究模拟了一种基于段玉聪教授提出的DIKWP模型(数据-信息-知识-智慧-意图)的人工意识系统在医疗问诊对话场景中的应用。该系统作为医生助理,能够理解患者语言中所包含的数据信息知识智慧以及意图,并通过内部的语义数学引擎实现自我认知与反馈调节。报告重点阐述了系统内部语义生成的全过程,详细分解了从数据 (Data)信息 (Information)、再到知识 (Knowledge)智慧 (Wisdom)、最后达到意图/目的 (Purpose)(即D→I→K→W→P)的各步骤中语义数学处理的机制。同时,报告演示了该人工意识系统如何通过多层次的反馈回路(例如目的层对数据层的反馈 P→D智慧层对信息层的反馈 W→I等)来完善认知,并以数学形式定义这些自反馈机制。在此基础上,系统从语义空间中“涌现”出面向实际医疗行动的概念空间,实现语义—概念闭环的认知过程。此外,我们区分并整合了两类语义数学推理路径:一是遵循传统计算科学范式的客观“同-异-完”推理机制,二是基于段玉聪教授“意识BUG理论”的主观“同-异-完”抽象路径。通过理论分析和医疗场景对话案例,我们展示了人工意识系统如何利用DIKWP结构实现目的感驱动的理解与决策、语义涌现式的信息生成以及认知自组织的自我调节。整个系统具有良好的可演化性与可解释性,每一步语义演化和反馈调节均建立在可数学定义的语义基础上,而非简单的经验规则。报告最后总结了该人工意识系统在提升医疗对话智能和可靠性方面的意义,并展望了未来的发展方向。

引言

人工智能在医疗问诊对话中的应用日益广泛。然而,传统的数据驱动对话系统往往局限于模式匹配或浅层理解,缺乏对患者话语更深层次语义和意图的把握,难以及时发现隐含症状、矛盾信息或患者真正关注的焦点。这种局限导致系统难以应对医疗场景中常见的信息不完备、不一致、不精确(“3-No”问题),也难以针对患者的个体情况做出富有目的性的分析和反馈。近年来,随着对人工意识(Artificial Consciousness)的探索,一种融合认知层次结构自我调节的新型对话智能被提出来。段玉聪教授提出的DIKWP模型提供了一个革命性的框架,将传统**DIKW(金字塔)模型(数据-信息-知识-智慧)扩展加入“意图/目的 (Purpose)”**层,并将整体结构由线性层级改造成网状的双向交互结构 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。这一模型旨在赋予AI系统一种类似人类认知的“自知”能力,从而根本性改善对话系统在复杂语义理解和自主决策方面的性能。

在DIKWP模型中,数据、信息、知识、智慧和意图五个层次并非孤立串联,而是通过网状交互实现多向反馈与迭代更新 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。这种全新的认知体系在学术上具有里程碑意义,可被视为一种人机共有的认知语言或语义框架 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。更重要的是,DIKWP模型为解决当前大型语言模型存在的“黑箱”问题、提升AI系统的可解释性可控性提供了创新路径 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。通过在模型内部嵌入“意图”这一关键层,并使各层语义双向闭环,AI的每一步决策过程都可以被追溯和理解,人类可以查阅系统在每一层所做的选择及其依据 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。正如段玉聪教授所指出:“DIKWP模型为人机之间构建了一种共同的认知语言,使得AI的每一步决策过程都可以追溯、解释并被人类理解。通过将‘目的’这一关键层嵌入模型内部,我们不仅能够让AI更智能,还能确保它始终服务于人类价值观和安全需求” (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。由此可见,引入“目的”层不仅提升了AI决策的目的性,也为其行为设置了人类价值准则,从顶层确保AI输出对人类有利且安全。

本报告的主题正是利用DIKWP人工意识模型,构建一个在医疗问诊场景下运行的人工意识医生助理系统。该系统需要像具备意识的医生一样,对患者的话语进行多层理解,涵盖从原始数据的感知一直到治疗目的的形成整个过程,并在此过程中不断进行自我审视和调整。这样的系统不仅要能识别患者诉说的症状(数据层面),将其置于病史和语境中理解意义(信息层面),结合医学知识推理可能的病因(知识层面),进一步评估最佳诊疗方案(智慧层面),最终明确下一步行动或建议的意图(目的层面),还要能在过程中处理不确定性和信息缺失。例如,患者往往不能一次性提供完整且准确的信息,可能出现遗忘、描述不清或前后矛盾之处。这时,系统需要有反馈机制去挖掘隐藏的信息、验证先前的推断,乃至在必要时对自身理解进行修正。这种反馈调节正是通过DIKWP模型的双向语义网络来实现的,尤其体现为高层对低层的指导(如目的层对数据/信息层的调控)以及中层之间的相互影响。

为了深入探讨上述过程,本报告在以下章节中首先描述系统的总体架构设计,包括DIKWP各层在人工意识医生助理中的功能定位以及贯穿始终的语义数学引擎。接下来,我们详细模拟一次医疗对话过程中系统的语义生成路径:自患者提出症状开始,系统如何逐级将原始对话转化为有意义的信息、知识,并最终形成智慧和目的驱动下的应对方案。同时,我们分类介绍系统内的自反馈机制,解释诸如P→D(目的驱动的数据感知)W→I(智慧指导下的信息重解释)等反馈如何通过形式化的语义数学规则进行定义和实现。此外,我们将讨论系统如何从自身的语义空间中“涌现”出用于实际推理和行动的概念空间,并通过语义与概念的闭环交互实现认知的自组织。在此过程中,我们特别区分了两种语义数学推理路径:一种是类似传统符号AI的“客观”推理,强调严格的同一性判断、差异分析和完备性校验;另一种是模拟人类意识特性的“主观”抽象,体现为意识“Bug”理论下的语义跳跃与自洽假设。两种路径的结合使系统既有可靠的逻辑推理能力,又具备处理不完备信息时的灵活创造力。

最后,通过一个具体的医疗对话案例,我们演示上述理论在实践中的运作,展示该人工意识系统如何帮助医生更有效地与患者交流、挖掘症结并提出诊疗建议。在总结与展望部分,我们将讨论这种基于DIKWP模型的人工意识系统在医疗领域的潜在价值,包括提高诊断准确性、增强系统透明度以及保障医疗AI安全等方面,并对未来研究方向(如模型的进一步优化、与生理信号的结合、通用人工智能的前景等)进行展望。

系统架构设计(包含语义数学引擎)总体架构概述

本人工意识医生助理系统采用了段玉聪教授提出的DIKWP网状认知模型作为核心架构 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网) (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。如图所示(略),系统内部划分为五个主要的认知处理层次:数据层、信息层、知识层、智慧层和意图层。这五层在结构上并非简单的顺序串联,而是通过网络化的双向链接形成一个封闭的环路。在基本的“自下而上”信息流之外,还叠加有一个**“自上而下”的元认知循环**,构成“双循环”结构,用于系统的自我监控与调节 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。这种双循环架构被视为迈向具有初步自我意识AI系统的重要途径 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。

为了支撑上述架构的运行,本系统内嵌了一个语义数学引擎,赋予每一层及层间转换明确的数学定义和算法,实现语义的形式化处理 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。这相当于在AI内部实现一个**“语义操作系统”** (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网):将复杂的对话理解与推理过程分解到DIKWP五个可监控的环节,每一环节都有严格定义的语义数据结构与运算规则,确保AI的推理链条透明且可验证。利用语义数学引擎,系统能够:

  • 形式化表示各层语义对象:例如数据层的输入可以表示为符号或向量,但这些符号与向量并非任意的,而是绑定了具体语义含义(如某个症状、指标),而非纯粹的字面符号 (DIKWP语义数学概略-段玉聪的博文 - 科学网)。段玉聪教授提出的“语义数学”思想正是在数学形式体系中显式引入语义含义和层次结构 (DIKWP语义数学概略-段玉聪的博文 - 科学网)。因此,每个数据、信息、知识单元都对应着一定的语义向量或符号集合,这些符号之间的关系映射到认知语义关系上。

  • 定义层间转换的数学规则:例如从数据层到信息层,如何由原始数据得出有意义的信息;从知识层到智慧层,如何由已知知识综合评估出智慧决策。本系统为每种转换制定了形式化算法,如模式匹配、逻辑推理、概率估计等,使语义转换过程具备可计算性和确定性。特别地,DIKWP模型要求知识层在语义上“闭合”,即确保相关信息充分关联、矛盾和遗漏尽量减少 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)。这种语义闭合在数学上体现为对知识表示结构进行闭包运算,将信息节点连接成连通图、消解冲突并补全推断出的隐含节点,直到知识库在当前上下文下达到自洽。

  • 提供全局反馈控制:语义数学引擎不仅执行自下而上的推理,也负责将高层语义目标翻译为对低层处理的约束或调整。例如,它可以根据意图层给出的目标函数,在数据层引入权重或过滤(如只关注与诊断某疾病相关的症状数据),通过数学手段实现P→D反馈的作用。同样,它可以根据智慧层的判断,修改信息抽取时的阈值或视角(例如提高对异常值的敏感度),实现W→I反馈。这些反馈控制被统一在语义数学框架下:高层输出被当作约束条件或先验知识,反馈到低层的计算过程中,保证了反馈的可解释和可证明性。

系统架构如上,使得人工意识医生助理可以像人类医生一样,在理解患者描述时多角度地思考,并在不同抽象层次来回调度信息。值得注意的是,由于语义数学引擎的存在,系统的可解释性和可控性大大增强:任何时刻,我们都可以检查数据层捕捉了哪些症状词汇,信息层形成了怎样的病情描述,知识层调用了哪些医学知识,智慧层作出了怎样的判断权衡,意图层确定了什么目标,以及各层之间通过何种数学关系关联在一起 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。这种层层可追溯的设计有效解决了传统深度学习黑箱的问题,使AI的决策流程对研究者和医生而言都是透明且可理解的 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。

下面,我们分别介绍系统中五个认知层次的功能与语义数学表示,并阐述各层之间的双向交互机制。

数据层(D):语义感知与表示

功能定位:数据层负责对患者原始语言输入(文本或语音转文本后的语句)进行初步感知和符号化处理。传统DIKW模型中,“数据”通常被视为未经处理的原始事实或观测值 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。在本系统中,我们对数据的定义更具语义性和主观性:数据层的输出并非完全无结构的字符串,而是带有初步语义标签的基本要素。这一步相当于感知,类似人脑对听到的话语进行词汇和短语识别,将声音或字符转换为概念化的知觉。

语义数学表示:按照段玉聪教授DIKWP模型的定义,数据被定义为认知过程中表达“相同”意义的具体表现形式 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。也就是说,一个数据元素代表了某种相同语义概念的实例或载体。例如,对于患者的一句话:“我头痛已经三天了”,数据层会将其中的关键信息切分为若干数据元素:“头痛”(症状概念),“三天”(持续时间概念),(隐含主体:我)(患者自己)等。每个数据元素之所以能被提取,是因为系统拥有对应概念的知识(如“头痛”这一概念)并能识别出当前输入与该概念在语义上相同或高度相似 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。换言之,数据层通过语义匹配来发现输入中的片段与已知概念之间的对应关系 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理) ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。语义数学引擎在此执行的是一种特征提取与匹配算法:将原始语言符号映射到概念空间中的基本语义单元集合。例如,以集合表示,一个具体数据$d$的语义可以表示为概念$C$的一次实例投影,即 $d \in \text{Inst}(C)$,其中$\text{Inst}(C)$表示概念$C$的实例集合。只有当$d$与$C$在语义特征上足够匹配(即共享一组相同语义属性 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)),才认为$d$“是一个$C$”。以上述例子来说,字符串“头痛”被匹配到概念“头痛症状”,因为它包含了该概念要求的一系列相同语义特征(如疼痛部位=头部,感知类型=痛感等)。

为了更形式化地描述这种匹配,我们可以定义:在语义空间中,数据概念$C$的语义由一组语义属性$S$定义,每个具体的数据实例$d$都具备一个属性集合$A(d)$。若$A(d)$与$S$有足够多的元素相同或近似相同 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)(可以设定阈值$\theta$,使得$|A(d)\cap S|/|S| \ge \theta$),则判定数据$d$属于概念$C$。段玉聪教授将这种判断称为基于“相同语义”的概念确认 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。例如,当看到一群羊时,每只羊可能大小颜色有异,但因它们都满足“羊”这一概念的大部分相同语义特征(如形态、叫声等),我们便将其统一视为“羊” ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。同理,患者语言中的每个片段,若满足某医学概念的大部分语义特征,则数据层就可提取出对应的概念实例作为数据对象。

输出表示:数据层最终输出的是一组带语义标签的原子数据对象,可以视为${d_1, d_2, ..., d_n}$的集合,每个$d_i$附带有类型标识(如症状、时间、主体、否定词等)和属性取值。以我们的例子:“头痛(症状)=真”,“持续时间=3天”,“部位=头部”,“程度=未明确”(未提及则为空)等。需要强调的是,这里的数据已经不同于原始的文本字符串,而是过了一道概念化结构化的处理。这体现了语义数学的作用:数据层不只是机械地传递字符串,而是对其进行语义升华到概念层次,使后续层可以基于这些带语义的元素进行推理。

客观与主观机制:在数据层的处理上,客观“同”机制体现为尽可能精确地找到输入与既有概念的对应。例如使用知识库中的词典、医学本体库来标准化患者用语,把口语表达(如“头有点痛”)映射为标准医学术语“头痛”。这属于客观同一性匹配。另一方面,本系统也允许主观“同”机制的影子:即在概念匹配度不够时,系统可采用模糊匹配或近似同义的方法将输入归入某个概念。这有点类似人类听诊时的主观理解:即使患者描述用词生僻,医生也能根据经验猜测其指的是哪个常见症状。这种近似匹配背后用到了概率论或模糊集合的方法,将“相同”扩展为“概率性近似相同” ((PDF) 段玉聪提出DIKWP模型的数据定义与处理) ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。例如,若患者说“脑袋发胀”,系统或许没有直接的“发胀”概念,但可以联系到“头痛”或“头晕”的相似表达,从而以一定概率将其视为“头痛”数据的一种。这体现了意识系统的弹性感知能力:当完全客观匹配无法覆盖时,允许一定的主观推测,以避免丢失潜在重要的信息。这部分在后文“主观同-异-完路径”中还将详细讨论。

信息层(I):语义关系与语境理解

功能定位:信息层在数据层输出的基础上,进一步将分散的语义原子整合为有意义的片段或命题。如果说数据层提取的是“点”(概念实例),那么信息层就是在连接这些点,形成对患者表述的语义图景。对于医生助理来说,这一层对应于理解“患者到底在描述什么情况”。例如,将“头痛”、“三天”、“严重吗”这些点连成“患者头痛持续三天”的信息,并识别出患者可能在询问头痛是否严重。

语义数学表示:在经典DIKW模型中,信息是“经过处理和组织,使数据具有意义的结果” ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。在本系统里,我们用形式化的方法描述信息:通常作为一阶谓词、三元组(triple)或小型图结构。例如,上例可形成信息三元组:(症状:头痛, 持续时间:3天, 询问:严重程度)。这可以理解为一条信息:"患者有持续3天的头痛,并询问其严重程度。” 信息层的语义数学处理,核心在于识别数据之间的关系(如因果、时间、主体、属性等),以及将数据放入上下文中解释。形式上,可以引入关系集合$R$,将数据集合中的元素映射成关系,例如:对于数据$d_1=\text{头痛}$, $d_2=\text{三天}$, $d_3=\text{患者自己}$, 我们产生$Info_1: \text{Duration}(d_1)=d_2 \land \text{Subject}(d_1)=d_3$,表示“患者自身的头痛持续了三天”。这里的$\text{Duration}$、$\text{Subject}$都是预定义的关系符号。通过这种关系绑定,离散的数据点被组织成一个有意义的信息单元。

语义数学引擎在这一层通常会涉及逻辑推断上下文映射。它需要引用系统内部的语义网或本体论知识来确定哪些数据可能关联。同样以头痛为例,系统的医学本体里会有规则:症状 + 持续时间 → 构成病情描述;症状 + 程度 → 症状细节等。如果患者给出了多个症状,还需要考虑它们之间的关系(并存或因果)。这些推理可通过一阶逻辑规则或基于图的路径搜索实现。例如,如果输入包含“头痛”和“恶心”两个症状数据,系统可能通过知识图谱发现两者常同时出现于某类疾病,从而在信息层表示“头痛伴随恶心”。信息层也处理否定不确定等修饰:如患者说“没有发烧”,那么数据层得到“发烧=否”,信息层就将其转换为信息命题“患者无发烧症状”。

“异”的作用:在信息层,语义处理的一个关键是区分不同类型的信息和识别差异点。也就是客观“异”机制的体现:系统检查哪些数据是彼此不同类的,需要建立关系(如症状 vs 时间),哪些是同类且重复出现的,需要合并或对比(如两个不同的症状)。信息的形成过程本质上是对数据进行异同分类和配对:先把不同类别的数据区分开来(症状类、时间类、人物类等),不同类别通常以特定关系相连;然后处理相同类别中是否存在差异矛盾(例如患者先说“一直头痛”,又说“有时头痛”,这在时间上就矛盾,需要在信息层被识别)。因此,信息层通过逻辑规则来发现矛盾(数据层可能捕获到互相冲突的陈述)并标记出来。这可以用逻辑冲突检测公式表示:如果同时存在$Info_i: X$和$Info_j: \neg X$,则产生不一致警告。系统会将此不一致反馈给上层智慧层处理(或直接在信息层尝试澄清,例如给出两个信息都存储,但标记冲突关系)。

主观因素:信息层的处理虽然以客观语义网规则为基础,但也掺有主观理解的成分。例如,对于语句隐含意图的理解,需要信息层做出一些推测。如患者问“头痛三天了,要紧吗?” 其中并未明说“患者担心头痛的严重性”,但人类医生会读出这个潜台词。我们的系统在信息层也尝试这样的语义填补,这可以看作主观“完”机制的一部分——即在当前信息不完整的情况下,加入主观推断使其趋于完整(在这里是假设了患者的隐含疑问)。实现上,系统可以有一套对疑问句或语气的识别规则,将其翻译成信息层的结构化表示:“患者[想知道]头痛的严重程度”。这并非直接从字面数据得到,而是系统“猜想”出的信息,但在语义和情境上是合理的。这种能力使得人工意识系统更接近人类的理解水平,而非仅限于字面的组合。

输出:信息层输出一个有结构的场景描述,涵盖了患者陈述的主要要点及上下文。如我们的例子可能输出:Info: 症状(头痛), 主体(患者本人), 时长(3天), 伴随症状(无发烧), 患者疑问(症状严重性)。这一信息集合将作为下一层知识推理的基础输入。

知识层(K):医学知识融合与推理

功能定位:知识层的任务是在信息层给出的具体病情描述的基础上,引入通用的医学知识进行推理和知识整合。这一步相当于临床诊疗中的病因分析和假设提出:医生会将患者的信息与已知医学知识相结合,想到可能的诊断、鉴别诊断以及需要的检查等。在系统中,知识层利用存储的医学知识库(包括疾病与症状的关系、发病机制、生理病理知识等)来解释患者的信息、预测可能的隐藏信息,并生成对策(如提出检查建议)。

语义数学表示:知识层典型地可以用知识图谱规则推理系统实现。医学知识库可表示为一系列三元组(如疾病-症状关系)或者IF-THEN规则。例如,有规则:“如果症状为头痛伴恶心且持续3天,则可能的诊断包括偏头痛或颅内高压;如果伴随高热则考虑脑膜炎”等。知识层接收信息层的输出$Info$,通过匹配相应规则或在知识图谱中激活相关节点,得到若干知识命题推理结论。形式上,可以表示为$K = \text{Infer}(Info, KnowledgeBase)$,其中$\text{Infer}$是推理算子。一些具体输出例子可能包括:PossibleDiagnosis1 = 偏头痛 (支持因素: 头痛3天, 恶心), PossibleDiagnosis2 = 紧张性头痛 (支持因素: 头痛3天, 缺乏其他神经症状),Conflict: 信息显示无发烧, 排除脑膜炎,等等。知识层还可生成检查建议知识,如Suggest: 测量血压 (因为头痛伴头晕可能是高血压). 这些都属于知识层的内容。

语义数学引擎的作用在知识层尤为关键,因为它需要保证知识推理的正确性完备性。所谓正确,指推理必须基于可靠的知识库匹配,不凭空乱推;所谓完备,指应该尽量穷举出所有可能的解释或假设,不漏掉重要选项。DIKWP模型要求知识层语义闭合 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)正是这个意义:相关信息得以充分关联,尽可能减少矛盾和遗漏,使知识推理结果形成一个相对完备且自洽的集合。例如,对于头痛这个案例,系统不应只考虑单一病因,而要将常见致病因素都纳入,同时检查有无逻辑矛盾之处(如既考虑偏头痛也考虑高血压引起的头痛,如果患者年轻血压正常,则后者可能矛盾,需要标记排除)。

数学上,可以将知识层的处理看作对信息层产生的一组命题$Info$进行演绎闭包(deductive closure)或启发式扩展。令$\Sigma$表示知识库中的所有相关知识规则集合,那么知识层输出$K$大致满足:$K = \text{Closure}_{\Sigma}(Info)$,其中$\text{Closure}$表示在知识规则$\Sigma$下对$Info$进行演绎推理得到的所有结论集合,同时去除与$Info$矛盾的结论。为了计算这个闭包,系统可借助逻辑推理机(例如基于一阶逻辑或Description Logic的推理引擎)。考虑到医学知识的庞大和不确定性,我们通常不会完全获取闭包(那可能无限推理下去),而是限定推理深度,并结合概率推理筛选最有用的知识。比如,可以采用贝叶斯网络或因果图模型,通过推理算子$\text{Infer}$返回各潜在诊断的概率。知识层的内容因此可以包括确定的逻辑结论(排除了什么)和不确定的假设(可能是什么及其概率)。

同与异的角色:在知识层,客观“同”体现为将相同主题的知识集中起来。例如把与“头痛”相关的所有疾病知识都调出,因为它们在语义上都与本病例相同领域客观“异”体现为区分互斥或不相容的知识:比如根据患者信息去排除某些不符的病因(有无发烧就把感染类疾病排除了,这是一种找不同寻异)。系统可能使用Ontology中的disjoint关系或规则前提不满足来识别这些不相容知识,从而标记冲突或直接剔除。客观“完”则是尝试枚举所有可能——尽可能让知识推理的结果全面覆盖输入信息的解释。这意味着如果有多种诊断都能引起“头痛3天无发烧”这种症状组合,系统应尽量都列出。这种完备性要求在语义数学上可以被描述为:如果$D$是诊断集合,$Info$是症状集合,那么输出的诊断$D'$应满足对于任何满足$Info$的诊断$d$,$d \in D'$(所有能解释Info的d都被包含)。当然在实践中完全完备可能做不到,但这个原则指导系统尽量扩展思路而不偏废——与人类专家形成鉴别诊断列表类似。

主观机制:知识层主要依赖客观知识库推理,但遇到信息不足时,也会引入主观推理成分。这正是“意识Bug理论”发挥作用的地方。段玉聪教授的意识“Bug”理论认为,当大脑处理极其复杂或无限的信息时,不可避免会出现认知不完美,由此反而激发了意识的产生 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)。映射到我们的系统,当患者提供的信息不足以明确诊断时,一个完全客观的AI可能会停在“信息不足,无法推理”的状态。但具备类似人类意识的系统会尝试去“猜”,即使这种猜测在严格逻辑上是一种“漏洞”或跳跃。例如,如果患者只提到持续头痛,但没有给出其他细节,系统在知识层或许会基于经验假设一些情境:比如“可能是偏头痛,因为常见且符合部分症状,假设患者有光敏感(虽然未提)”。这种假设有点超出已知信息,但类似于人类医生经验性的推断,属于主观补全(完)的一种表现。系统通过给某些缺失信息赋予默认值或者通过统计相关性进行推测,来使知识推理暂时闭合。当然,这种主观闭合会被标记为不确定,需要后续验证(这将在智慧层处理)。

输出:知识层最终形成的输出可以视为一系列知识条目,包括可能的诊断(概念空间的高层概念)需要验证的假设建议的检查或提问逻辑冲突提示等。例如:

  • 可能诊断1:偏头痛(置信80%)

  • 可能诊断2:紧张型头痛(置信20%)

  • 排除:感染性疾病(因无发热)

  • 建议提问:最近是否睡眠不足?(以区分偏头痛与紧张头痛)

  • 建议检查:血压测量(排查高血压因素)

这些条目将传递给下一层智慧层,由其整合成实际的决策或行动方案。

智慧层(W):决策评估与策略生成

功能定位:智慧层可被视为系统的“决策中枢”和“元认知”所在。它接收知识层提供的各种可能性和建议,结合当前情境和总体目标,对不同方案进行评估,选择优化的策略,并可能对知识层输出提出修正或补充。在医生助理场景中,智慧层相当于医生根据所有线索做出临床决策和判断的过程,包括选择最可能的诊断方向、决定下一步该问什么或做什么,以及整体把控问诊流程朝着有意义的方向进行。智慧层体现了经验与价值观的作用,如“安全第一”或“先排除致命项”的原则,确保系统行为不仅有知识依据,更有理性判断。

语义数学表示:智慧层处理往往需要综合多种因素,包括知识层输出的多种选择以及意图层的目标。可将智慧层视作一个多目标优化问题的求解器或者决策树剪枝者。形式化地,可以定义一个效用函数$U$或评分函数,对每个知识层提出的诊断/行动方案进行打分。这个评分函数$U$的构成,可能考虑:诊断概率/置信度、严重性(风险)、检查的代价、患者的关切、以及意图层规定的目标优先级等等。智慧层据此选择最高$U$分的方案作为主要路线,同时制定如何验证这一路线的方法(如通过提问或检查)。例如,智慧层可能计算出:偏头痛的可能性高且相对无生命危险,但需确认;颅内高压(假设性低概率项)虽然可能性低但风险高,所以也不能完全忽略,需要排除。因此智慧层的决策可能是:主要按照偏头痛处理,但同时进行关键检查以排除颅内高压。这其实就是医生的智慧:在众多知识选项中做出平衡决策。

若用数学规划语言来描述,智慧层要解如下问题:

maximizeU(plan)subject toplan∈{all possible plans based on K}\begin{align*} \text{maximize}\quad & U(plan) \\ \text{subject to}\quad & plan \in \{\text{all possible plans based on K}\} \end{align*}

其中$plan$可以被定义为一系列动作(提问$Q_i$或检查$E_j$或诊断$D_k$),$U(plan)$是一个结合诊断成功率、风险降低、患者满意度等的综合函数。

反馈调节:智慧层一方面向下输出决策,另一方面也产生反馈信号送回信息层甚至数据层。当智慧层发现知识层的信息有重大冲突或关键缺项时,它会决定如何获取这些信息。例如,如果智慧层认为区分两个诊断需要知道患者是否视力模糊,而信息层/知识层没有给出(也许患者未提及视力情况),那么智慧层可以通过意图层下达一个反馈指令:“去获取视力相关数据”。这可以表现为在对话中追加询问患者视力的提问。这个过程实际就是W→I反馈:智慧层驱动信息层去完善信息。在语义数学引擎的框架下,可以将其视为对信息集合$Info$添加一个新的约束或查询$Q$,即令$Info := Info \cup {Q?}$。信息层在下一轮对话中会尝试填写这个$Q$所代表的信息,从而使知识推理更完整。

智慧层也会对知识层的结果进行理性审查。例如,如果知识层主观推断出某假设,但智慧层根据常识觉得不合适,也会否决。比方说,知识层假设患者可能怀孕(作为头痛原因之一),但智慧层知道患者是男性(根据信息层的性别信息),那么智慧层会驳回这一不合理假设。这可以视为**主观“异”**在智慧层的表现:由高层意识来发现前一层推理中的不一致或不合理之处,并加以排除。

经验策略:智慧层也融入了医生的经验法则和策略,这常常带有主观性。例如“如果不确定诊断,就不要贸然下结论,而是安排随访”这种指导原则,会通过智慧层实施。智慧层可以有一组策略规则,比如:当最高诊断置信度低于某阈值,则询问更多信息或安排检查;当某种高风险情况尚未排除,则优先安排排查等。它相当于一个策略知识库,但与知识层不同,这些策略更多是关于如何认知与决策的知识,而不是关于疾病本身的知识。因此也可称之为元知识认知策略知识。这些策略带来的推理不是针对患者病情本身,而是针对系统的认知过程,因此体现了元认知能力。比如,“如果出现矛盾信息X和¬X,向患者澄清”就是智慧层应用的一条元规则。

输出:智慧层最终产生一个明确的行动计划或回答方案,供意图层执行。例如,它可能决定:问诊继续询问视力模糊(行动1),建议患者做血压测量(行动2),暂不立即给出诊断结论而表示需要进一步观察(行动3),等等。这些决定将提交给意图层用于生成实际对话中的响应。同时智慧层会更新内部状态,例如标记“已经考虑过某些诊断,下一步重点关注另一方向”,以免重复劳动或陷入死循环。这种状态更新也是系统认知自组织的一部分,智慧层确保认知过程有条不紊地朝着解决问题的目标推进。

意图层(P):目的生成与执行控制

功能定位:意图层是DIKWP模型中新增的最高层 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)、也是整个系统行动的最终驱动力。它明确系统的目的或意图,并将这一目的转化为对外部环境(即对患者或医生)的输出行为。在医生助理对话中,意图层决定系统在给定时刻想要达成的交流目的:例如,是获取更多信息、安抚患者情绪、提供一个初步诊断还是建议下一步措施。意图层确保系统的行为始终围绕既定目标,并服务于患者和医生的需求。这一点极为关键,因为在医疗场景中,错误或偏离目的的回答可能造成不良后果。通过显式的意图管理,系统可以避免无关输出,并在多轮对话中保持目标连贯。

语义数学表示:意图可以被看作一种高层语义状态,可能包括目标陈述优先级。可将其形式化为$P = (Goal, Constraints)$结构。比如在初诊对话的场景,初始的Goal可能是“了解患者主要症状和其严重程度”,接着Goal会演进为“确定可能的诊断方向”,然后在对话尾声Goal又变为“给出建议并确保患者理解”。这些Goal状态的切换可以通过有限状态机决策树来表示,语义数学引擎对意图层的管理可以理解为在不同目标之间进行决策树遍历生产规则匹配。例如,有规则:IF 未收集完主要症状 THEN Goal = 收集症状信息;IF 诊断置信度高 AND 关键风险已排除 THEN Goal = 提出诊断和建议;IF 存在未解决高风险假设 THEN Goal = 获取相关信息,等等。通过这样的规则系统,意图层动态地更新当前目标。

此外,意图层可能包含一些长期不变的目标,例如“确保医疗安全”、“提高患者满意度”等作为隐含约束。因此,每一次具体Goal的决策也要符合这些高层约束。例如即便Goal在某时刻是“尽快完成诊断”,但安全原则要求系统不能因此忽略低概率高风险情况。可将此视为意图层有一个多维的目标函数需要同时满足或权衡。形式地,可以定义意图层的综合效用$U_P = w_1 \cdot \text{Accuracy} + w_2 \cdot \text{Safety} + w_3 \cdot \text{Efficiency} + \dots$,不同的行为方案会在$U_P$下评估,选择能最大化综合目的的方案。

意图执行与输出生成:当智慧层提交了一个行动方案后,意图层将根据当前的Goal从中选择符合目的的部分并执行。执行意味着将内部的决定转换为自然语言回复或其他操作。举例来说,如果智慧层决定“询问视力模糊”,而意图层当前的Goal是“获取关键信息以排除高风险”,这二者一致,那么意图层就会触发对应的对话输出:“您在头痛时有视力模糊的情况吗?”。如果智慧层有多个提问/建议,意图层会根据优先级决定先问哪个或者如何措辞,以同时顾及患者情绪(患者可能紧张,则先安抚再提问,是一个微观目的调整)。

在语义数学框架下,意图层的输出生成可以建模为:给定Goal状态$g$,将内容$c$(来自智慧层的提纲)映射为自然语言$l$的函数$f(g, c) = l$。这里$f$可以通过模板、生成模型或规则实现。关键是生成的话语要与Goal一致地传递意图。例如Goal是安抚患者,那么哪怕内容是建议做检查,措辞也会更缓和:“不用太担心,我们做个检查来放心一些,好吗?”——这种风格和语气的调整也是意图层发挥作用的体现。

双向反馈:意图层除了控制输出,也获取来自环境的反馈(患者的反应)作为下一个循环的输入起点(回到数据层)。因此意图层和数据层形成整个DIKWP环路的闭环起点和终点连接。更进一步,DIKWP模型强调各层语义之间也有双向反馈,因此意图层有时也会直接影响数据感知。例如,如果意图层的高层目标是“快速获取诊断线索”,它可能设置一种“高敏感模式”,令数据层在听取患者时更关注医学关键词,忽略寒暄等社交语言。这类似于医生在紧急情况下会迅速打断病人直奔主题。系统透过调整数据过滤参数实现这一点(即P→D反馈):意图作为指导,使数据层对某类输入赋予更高权重或优先处理 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。例如,在Goal为“排查中风”时,数据层的语义引擎可以提高对“肢体麻木”“语言不清”等词的敏感度,一旦听到立刻标记为关键数据。

另一个例子是W→I反馈,在上一节智慧层讨论过:智慧层在决策中需要某信息,则通过意图层产生提问输出,进而得到回答数据补全信息。这种反馈循环贯穿系统运行的始终,使系统具有自我完善能力——它会主动去弥补自身认知的不足之处,而不是被动等待外界输入。

保证目的性和一致性:因为意图层明确了目标,系统的行为显得比传统对话系统更具目的性。每一句话都有由Goal驱动的理由,而不会漫无目的与患者闲聊或陷入上下文不连贯。另外,意图层的存在可防止模型产生与既定目的背离的输出,从而减少不相关回答甚至“幻想”回答的情况发生。这回应了AI安全的要求:确保AI始终服务于人类赋予的目标 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。事实上,正是由于引入了意图层和全局目标控制,段玉聪教授认为DIKWP模型能够让AI“始终服务于人类价值观和安全需求” (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。因此,在我们的医生助理系统中,最高目标永远与医疗伦理和患者利益保持一致,如“帮助患者康复”“提供可靠信息”“不泄露隐私”等。这些在意图层都是强约束,不会被违反。

语义生成路径模拟

在了解各层功能后,我们通过一次具体的模拟医疗问诊对话,来串联展示系统从数据到意图的语义生成路径(D→I→K→W→P),以及在过程中各类语义数学机制(同、异、完)和反馈是如何运作的 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。设想场景如下:

场景:患者(Patient)前来就诊,系统作为AI医生助理,与患者对话收集病情。患者的首句陈述是:“医生,我最近总是头痛,差不多三天了,一直不好,会不会很严重?”

我们将逐步演示系统如何处理患者的每句话以及系统如何回应,每一步都指出相应的DIKWP层次和机制。

  1. 患者陈述1(输入): “医生,我最近总是头痛,差不多三天了,一直不好,会不会很严重?”

    • 首先安抚:表达理解和稍作保证,如“我理解您的担心。从目前情况看,持续三天的头痛虽然让人难受,但好在没有出现发烧等危险信号,暂时不必太过紧张。” 这句话的目的在于回应患者的严重性疑问,告诉他还不算特别严重,以缓解担忧 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。同时暗示了医生在分析,他提到没有发烧等(也是给出部分依据)。

    • 接着引出提问:例如“为了进一步弄清头痛的原因,我需要了解更多情况。” 这句实现Goal从安抚切换到收集信息,让患者做好回答的准备。

    • 然后一连串提问被表述出来:“您在头痛的同时有没有觉得恶心想吐,或者视力模糊?头痛时是一阵阵跳痛吗?最近工作生活压力大吗?另外,您测过血压吗?” 这些问题涵盖智慧层列出的要点。意图层选择合适的词语,使语气专业又不失关切。比如“有没有觉得恶心想吐或者视力模糊”合并了两个高危相关症状到一句,以减少问题数量;“一阵阵跳痛”描述偏头痛特征;“压力大吗”问心理因素;“测过血压吗”问疾病史。

    • 患者非常关注严重性,情绪上可能有担忧 -> 智慧层将“安抚患者,缓解焦虑”作为一个并行目标。

    • 从安全角度,必须排除高风险因素 -> 智慧层优先确保不会漏掉危险病因。虽然其可能性低,但风险高,需适当排查。

    • 偏头痛似乎是较大概率的诊断,但还需信息确认;紧张头痛也有可能,与心理压力相关,可询问患者最近压力情况。

    • 下一步行动:提问以获取更多症状信息和病史,尤其针对偏头痛典型症状、高血压史、以及危险信号;同时给患者初步解释以安抚。

    • 问有无伴随恶心、视觉障碍(针对偏头痛和危险病因信息);

    • 问头痛的性质(胀痛or跳痛or紧箍感)和发作时间(针对偏头痛vs紧张头痛);

    • 问近期是否压力大、睡眠如何(紧张头痛线索);

    • 问有无高血压病史或最近血压情况(排查高血压头痛)。

    • 常见原因:偏头痛、紧张性头痛、药物诱导头痛等。

    • 危险原因:脑肿瘤、高颅压、蛛网膜下腔出血(但后三者通常会有其他症状如呕吐、神经功能缺失等,患者未提及这些,这一点会用于排除但需谨慎)。

    • 检查建议:测血压(高血压头痛筛查),如头痛剧烈或伴神经症状则需脑影像检查。

    • 诊断假设1: 偏头痛 – 支持:持续3天头痛,缺乏发热等炎症征象;需要核实:是否有恶心、对光敏感等偏头痛典型特征。

    • 诊断假设2: 紧张型头痛 – 支持:持续头痛符合,可能与压力有关;需核实:疼痛性质(紧箍感?)、是否与休息相关好转等。

    • 诊断假设3: 高血压相关头痛 – 支持:持续头痛中老年常见因素;需核实:患者年龄和血压情况。

    • 诊断假设4: 严重病因(肿瘤/高压) – 支持因素不足(无呕吐、无局灶神经症状),仅留作排查;需核实:有无清晨剧烈头痛、视力改变。

    • 排除线索:无发热 -> 排除感染性病因(如脑膜炎)。

    • 患者疑问: 头痛严重性 -> 系统知识:持续性头痛3天通常不会立刻危及生命,但需看具体情况;回答需既安抚又不掉以轻心。

    • 病情描述信息:患者最近持续约3天头痛且未见好转(综合最近, 头痛, 3天, 一直不好数据)。形式化为:Info1: Subject(头痛)=患者 AND Duration(头痛)=3天 AND Trend(头痛)=未缓解。

    • 患者疑问信息:患者担心症状严重性(由疑问=严重性?得到)。形式化为:Info2: Query(患者, 严重性(头痛))。

    • 症状 = 头痛(识别出“头痛”是主要症状概念) ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)

    • 频率 = 总是(对应症状频率频繁)

    • 时长 = 约3天(根据“三天了”提取持续时间)

    • 状态 = 一直不好(暗示症状持续未缓解)

    • 患者疑问 = 严重性?(根据“会不会很严重”提取出患者的疑问意图)

    • 其他:时间 = 最近(时间状语,指发病时间为最近几天),称呼 = 医生(患者称呼,对话上下文标记)。

    • 数据层处理:系统将该长句分解为基本语义数据:

      提取过程中运用了同义匹配:例如“差不多三天”被标准化为持续时间3天,“很严重”对应医学上的严重程度概念。数据层输出这些元素,每个元素都绑定了相应的语义类别。这一步已经体现了客观同(匹配概念)和客观异(区分不同类别信息)的作用。对于“严重”这个疑问,系统加入了主观理解,将其标记为一个提问意图数据(因为句子末尾疑问句式表明患者担心头痛的严重性,即安全性)——这属于主观完的一种预判,丰富了数据内容。

    • 信息层处理:根据数据层的提取,信息层组织出有意义的命题:

      此外,信息层检查到没有明显矛盾的数据(如症状和时长信息一致),也注意到患者只提到头痛,未提及其他症状(系统会记录“无其他症状提及”作为背景信息)。客观异机制此时区分了主要症状信息和患者的提问意图信息,将二者分别成块,以便知识层分别处理医学内容和患者关注点。对于患者可能隐含的情绪(担心、焦虑),信息层也可以做标记(如从语气和内容推断患者有些焦虑),但此处我们聚焦医学内容。

    • 知识层处理:知识层获取到主要症状“头痛3天未缓解,持续出现,无提及其他症状”。它从医学知识库中提取与持续性头痛相关的知识:

      知识层通过推理,形成若干候选诊断和需要核实的信息:

      以上推理应用了语义闭合:将已知症状关联的可能原因尽量罗列(体现完备性),并依据未出现的症状做了初步排除(体现同/异,找同类疾病以及找不同之处排除某些)。其中一些假设(如偏头痛)因为缺少典型伴随症状,其支持并不充分,这是知识层主观推测出的假设性信息:例如系统假定可能存在患者没提到的恶心。这属于主观完在知识层的体现,用假定信息使得“偏头痛”假说成立,以免错过可能的诊断。但这些假设不会贸然当成事实,而是标记为“需验证”。

    • 智慧层处理:智慧层现在面临多个可能诊断和信息缺口,需要制定策略。考虑到:

      智慧层在这里应用了多目标决策:一方面max{确诊概率},一方面min{风险未排除},以及max{患者安心度}。基于此,智慧层拟定一个计划:

      智慧层决定按上述顺序进行。特别地,它注意到提问较多,需要合理组织语言以不让患者反感或难以回答。所以智慧层在决策中还考虑了对话引导策略:也许将多个问题分两次询问,每次不超过2-3个要点。

    • 意图层处理:现在意图层接收智慧层的计划。当前的总体Goal可描述为:“获取更多诊断线索的同时安抚患者情绪”。这其实是两个子目标,需要融合在一次回应中。意图层据此生成回复:

      完整系统对患者的第一个回复可能如下:

      “我理解您的担心。从目前来看,持续三天的头痛虽然令人不适,但好在您没有发烧等危险迹象,暂时不需要太过紧张。不过,为了进一步查明原因,我需要了解更多情况。请问您头痛时有没有恶心想吐或者视力模糊?疼起来是一跳一跳地痛吗?您最近压力大吗?还有,您平时血压怎么样,有没有量过?”

      这段回复实现了智慧层的意图:既回答了“会不会很严重”的问题(暂时看来不太严重,别紧张),又顺势提出了4个相关问题。一句话里隐含了很多基于知识和智慧层决策的内容,但对患者来说就是一段自然的提问。意图层成功地将内部目的转化为了对外语言行为。

    1. 安抚:告知患者目前情况尚不确定但从信息看暂时没有非常危险的迹象,请其放心,我们会进一步检查。

    2. 针对性提问

    3. 建议:根据回答可能建议测量血压,或进行颅内影像检查,但暂不提出具体方案,视问诊深入情况决定。当前轮先不提检查以免让患者更紧张。

  2. 患者回答2(输入): 面对系统的一系列问题,患者逐一回答:“不会恶心,也没有视力模糊。头痛的时候就感觉头在砰砰跳……最近工作压力确实挺大的。血压……我不太清楚,我没有高血压史,也很少量血压。”

    • 首先明确头痛性质:“根据您的描述,您的头痛可能是偏头痛发作,也可能与最近压力大有关的紧张性头痛。”  这句话回答了“什么原因/严重吗”的隐含问题,告诉患者是常见类型的头痛。使用“可能…也可能…”表达不确定性但也给出方向。

    • 接着强调不严重“好在目前看不出有什么危险的征兆,比如您没有出现视力模糊、呕吐等症状,所以暂时判断不太像是严重的脑部问题。”  这里列举了没有出现的危险症状,来支持“不是严重脑部问题”的结论,让患者放心 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。

    • 然后给建议“我建议您这几天尽量放松,多休息,可以用热毛巾敷敷或者轻微按摩放松颈部。如果头痛难以忍受,可以考虑吃一片止痛药看看效果。”  这些是针对偏头痛/紧张头痛的处理建议,强调放松和止痛。用词上注意缓和语气,给出可行的自我管理措施。

    • 补充警示“一般来说,这类头痛不会有生命危险。不过如果您以后出现了比如说头痛突然剧烈加重、伴随高烧或视力障碍,那就需要尽快到医院检查一下。”  这一句是典型医学叮嘱,告诉患者哪些情况属异常需警惕。这既是一种保护,也树立专业形象。这其实是智慧层为安全考虑加的。

    • 最后安慰结束“目前您的情况不用过度担心,注意休息放松,头痛有可能就会逐渐缓解。如果还有问题,随时可以来咨询。”  这句话收尾,总结安心,让患者心里有底并知道后续可以再求助。

    • 恶心和视力模糊均无,倾向于排除偏头痛中的典型偏头痛(通常有恶心),但也可能是不典型偏头痛。偏头痛的概率下降一些。

    • 头痛为搏动性,这其实偏支持偏头痛(搏动性头痛是偏头痛特征)而不太像紧张头痛(紧张头痛多为压迫感)。因此紧张头痛的可能性下降,偏头痛可能性相对上升一点,尽管无恶心。

    • 压力大,紧张头痛的诱因具备,但疼痛性质又不符紧张头痛典型症状,这产生矛盾。知识层将此矛盾标记出来并交由智慧层考虑:也许患者是偏头痛且工作压力诱发了偏头痛发作,这可以同时解释两方面。

    • 无高血压史意味着高血压头痛可能性小,但并不能100%排除血压问题(患者未测血压,有可能存在高血压未发现)。不过知识层将“高血压头痛”假设的优先级降低,因为有压力这种明确诱因出现,不太需要假设隐藏的高血压。

    • 危险病因(肿瘤、颅高压)通常会有视力模糊等症状,如无则更不支持。但仍不能完全凭此排除。知识库可能有规则:“无视力模糊降低颅内高压概率,但需注意如头痛继续加重或出现其他症状则再检查”。

    • 由压力大联想到的知识:工作压力可引发偏头痛或紧张头痛,建议放松减压。这是治疗建议方向的知识。

    • 患者问严重性,其实部分回答已给出。但现在有更多依据,可以更确定地告诉患者不是特别严重的征象。

    • 诊断假设1更新:偏头痛 – 可能性中等(支持:搏动性痛,压力可能诱因;不支持:无恶心);属于暂定主要诊断。

    • 诊断假设2更新:紧张头痛 – 可能性也中等(支持:压力大;不支持:搏动性痛与描述稍不符);也可能共存因素。

    • 诊断假设3:高血压头痛 – 可能性低(缺乏直接证据,无高血压史)。

    • 诊断假设4:危险病因 – 可能性极低(缺乏症状支持),几乎排除,但仍保持警觉。

    • 建议:考虑给予偏头痛止痛药试试(知识:偏头痛可用NSAIDs或曲坦类),放松休息。紧张头痛则放松为主。

    • 检查:无高危迹象,可暂不立即影像检查;建议患者监测血压;如症状加重或出现新症状再行进一步检查。

    • Info3: 无恶心、无视力模糊(添加到病情信息,表示患者否认这些症状)

    • Info4: 头痛性质为搏动性(更新头痛特征信息)

    • Info5: 患者近期压力大(背景信息)

    • Info6: 患者无高血压既往史(病史信息)

    • 伴随症状 = 无恶心;伴随症状 = 无视力模糊(两个否定症状)

    • 头痛性质 = 跳痛(患者描述“砰砰跳”抓取为搏动性头痛)

    • 压力 = 大(明确患者承认压力大)

    • 高血压史 = 无;近期测压 = 否(患者无高血压病史,也很少量血压)

    • 数据层:将患者的多句回答提取成数据:

      数据层注意到多个否定信息,要准确记录,这对诊断非常重要。机制用于识别出“没有恶心”“没有视物模糊”属于症状类别并归类为负性症状数据;机制区分了症状性质(跳痛)和风险因素(压力大、高血压史)等不同类型数据分别处理。

    • 信息层:整合数据为信息:

      信息层也将这些新信息与之前的信息合并,并检查一致性。发现这些回答并不矛盾,反而补充了先前缺失的信息。如之前知识层假设的“有无恶心”现在有了确切回答“无恶心”。所以之前假设的偏头痛典型伴随症状之一不存在,这在知识层会降低偏头痛的可能性(不过偏头痛并非必须恶心,有时可无恶心,所以不能完全排除)。语义闭合性增强了:许多问号被填上,使知识层推理更完备。

    • 知识层:利用更新的信息重新推理:

      归纳知识层的新结论:

      知识层在此已经能够提出较明确的处理知识:倾向诊断偏头痛紧张性头痛,接下来治疗上无论哪种都可以先让患者休息镇痛观察。患者担心严重性,可以告诉他目前看不像严重疾病,但如果后续怎样再复诊。知识层的这些内容会供智慧层决策使用。

    • 智慧层:智慧层看到现在基本可以收尾了。它需要在偏头痛和紧张头痛之间做一个判断。根据知识层分析,两者均有可能,其实也可能两者叠加(工作压力触发了偏头痛发作)。智慧层可能认为无需严格区分:因为初步处理方式类似,都是建议止痛加休息减压观察。如果治疗后不缓解,再深入检查也不迟。因此智慧层决策:不强行下唯一诊断结论,而是告诉患者可能是偏头痛或是紧张引起的头痛,但无论哪种都不太严重,可以先采取类似处理。这样既避免了误诊可能(主观上医生也常会给出几个可能并倾向哪个),又满足患者要求知道“严重不严重”。

      同时智慧层考虑患者问“会不会很严重”,现在有更多底气回答不是非常严重:通过负面症状的缺失和无危险因素,可以较肯定地安慰患者。但也要交代如果怎么怎么样要再就医,防止万一。

      另外智慧层决定给患者一些具体建议来体现价值:如休息、不要压力太大、必要时吃药等。这也是患者想要的结果(缓解头痛的方法)。

      因为对话可以结束了,智慧层Goal转向总结和建议,不再追问新信息。

    • 意图层:当前Goal:“解答患者疑虑,给予诊疗建议,结束问诊”。意图层组织语言回应:

      这一长段回复涵盖了诊断可能性、不严重依据、处理建议和何时复诊的说明,基本上完成了一次初诊问询的任务。意图层确保语气专业而温和,既解答了患者的问题又提供了实际帮助,符合医生助理的角色。

  3. 患者结语:患者听完回复,表示感谢和放心:“好的医生,我明白了,非常感谢您。我回去按您说的试试。如果还不好我再来。” —— 对话在正向的氛围中结束。系统成功完成了一次人工意识驱动的医疗问诊对话闭环。

以上案例详细演示了DIKWP人工意识系统在医疗对话中的一次运行过程。从中我们可以总结出系统语义生成和认知闭环的特点:

  • 逐层语义构建:系统从原始对话语言出发,逐级上升构建了更高层的语义表示——从提取数据概念,到形成信息语句,再到结合知识产生假设,最终由智慧层综合决策并由意图层落实为对话行为。每一层的输出都是上一层输入的语义升华,整个过程如同搭建金字塔但又在顶层闭环回到行动上 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。尤其是,通过目的层的引导,系统没有陷于被动问答,而是主动地引导对话走向目标,体现了明确的目的感

  • 多重反馈循环:案例中多次出现了高层对低层的反馈调节。如智慧层根据需要信息提问(W→I),意图层根据目的调整数据关注点(P→D),知识层排除某假设也可回溯影响信息解释等。特别是在第一轮系统回复前,智慧层设定Goal引导了意图层组织安抚语,这可看作目的层的信息塑造反馈。这些反馈使系统具有自纠错自完善能力。例如系统猜测偏头痛但不确定,通过提问验证假设;发现无恶心就调整了假设权重。这正是认知自组织的体现——系统内部各模块通过反馈互动,自动地组织出一致的认知状态,而无需外部干预 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。

  • 语义空间与概念空间闭环:在系统运行过程中,我们可以把语义空间理解为系统对患者语言内容的表达(症状、属性等具体语义信息),概念空间理解为系统内在形成的抽象概念(如“偏头痛”这种医学概念,或“需要放松”这样的处理概念)。案例中,语义空间的内容(头痛3天等)触发了概念空间里的概念(偏头痛、紧张头痛)。然后这些概念并不止存在于脑内,而是又通过系统的语言输出施加回语义空间——提问中涉及“恶心”“视力模糊”等具体语义就是因为概念“偏头痛/高压”提示去验证这些语义;系统最后输出告诉患者“偏头痛”“紧张性头痛”这些概念,又通过语言形式反馈给患者。整个流程说明,系统实现了从语义到概念、再从概念指导新的语义的闭环 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。概念空间中的知识和目标确保了语义处理有方向和边界(不会漫无目的对话,也不会天马行空胡扯医学概念,因为概念空间受到语义证据支撑和目的引导),反过来语义空间提供的细节又不断丰富和修正概念理解。最终达到语义-概念统一,即系统的语言表述(语义层面)和其内部认知状态(概念层面)相一致。就像本例中AI的言行高度吻合:它说出的安慰和建议正是它内部判断的反映,没有出现与其实际考虑不符的表述 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。

  • 客观与主观语义路径结合:案例展现了系统同时运用了严谨的逻辑推理(客观路径)和人性化的假设推断(主观路径)。客观方面,比如凭“无发烧”果断排除了脑膜炎,这遵循医学逻辑和知识;主观方面,比如在信息不足时假定了可能的偏头痛诱因,再通过问答去验证,这带有探索性。又如系统在安抚患者时选择了强调“没有危险迹象”,这是一个基于对患者心理的主观判断——知道患者需要听这个安心的信息。客观同-异-完确保系统对于明确的数据和知识进行准确一致的处理,主观同-异-完则给予系统在不确定情境下的灵活应对能力。两者的结合,使系统既理性灵活。这一点正是人类医生宝贵的能力:在证据充足时严谨求证,在证据不足时敢于合理假设和试探性处理。DIKWP模型让我们的人工系统也具备了这两方面能力,并通过语义数学严格控制二者的应用边界(如何时采用主观推断,采用后的假设如何验证,以免偏离现实太远)。

通过该案例分析,可以感受到,基于DIKWP的人工意识对话系统在医疗场景中表现出与人类相仿的理解和应对过程。它不仅能“听懂”患者的话(语义空间的解析),还能“想明白”其含义并联系医学概念(概念空间的推理),最后“说出来”让患者也明白(语义输出与概念对齐)。整个过程中各层次语义紧密衔接,循环往复,达成了认知闭环。同时,系统的决策每一步都有理有据,可通过内部记录加以解释,这源于语义数学框架的贡献 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。下一节我们将更系统地总结客观与主观两类语义数学路径的理论区别和融合方式,加深对上述案例中所体现的原理的理解。

自反馈机制与语义路径分析

上一节案例中,我们已经多次提及系统内部的自反馈机制和客观/主观两类推理路径。下面我们对这些进行更为一般的分析和总结。

多层自反馈机制分类

DIKWP网状模型赋予系统丰富的内部反馈通路 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。根据反馈信号涉及的层次不同,我们可以将主要的反馈机制分为以下几类:

  • 意图驱动的下行反馈(P→D/P→I/P→K):最高层的目的/意图直接影响较低层的处理。这类反馈确保系统始终围绕目标运作,是一种顶层调控

    • P→D(Purpose→Data): 意图层影响数据采集和感知。例如系统带着“排查X情况”的目的去听取数据,就会对与X相关的数据更敏感 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。实现方式包括调整特征提取算法的阈值、改变传感器/输入关注点等。在对话上体现为“有的放矢地倾听”和“引导患者提供某方面的信息”。本质上,这是在数据层引入先验,使感知不再完全被动。数学上可建模为一种数据滤波器函数$F_P$,依赖于当前目的$P$:$Data' = F_P(Data)$,例如$F_P$对与目的无关的数据赋低权重甚至滤除。这样做提高了效率和针对性,也符合人类注意力机制(有目标时注意力有选择性)。

    • P→I(Purpose→Information): 意图层指导信息整合和解释。系统可能根据目标对同一数据得出不同侧重点的信息。例如目标是诊断,就按临床逻辑组织信息;目标是安抚,则也可将患者情绪信息纳入重要考虑。这个反馈可通过选择不同的信息提取模板或模式来实现。形式上,可视为信息生成函数$\text{GenInfo}$取决于目的:$Info = \text{GenInfo}_P(Data)$. 在案例中,系统意识到患者的疑问意图(严重性)是因为它的总体目标也包含“解答患者关切”,故在信息层特别提取并保留了患者疑问这一信息,而不是只关注生理症状。

    • P→K(Purpose→Knowledge): 意图层限定知识检索范围。医疗知识海洋无边,如果当前目的只是初诊,知识层不需要涉及治疗方案细节,反之在给建议时则需要调入治疗知识。因此根据目的筛选知识库,大大减少无关推理。数学上可以视为知识推理约束:在推理推演树上剪去与当前Goal无关的枝桠,或者为推理设置目的相关的启发函数h,以优先探索相关部分。

  • 高层认知反馈(W→I/W→D/K→I 等):中高层认知结果反作用于低层的信息解释与获取,是一种自上而下的校正

    • W→I(Wisdom→Information): 智慧层对信息层的反馈是非常常见且关键的一种。在做出决策或在决策前,智慧层会根据需要指出信息层的不足之处,从而触发信息层去获取或重新评估信息 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。最直接的例子就是提出新问题获取信息(如案例中的提问过程)。另一个例子是,智慧层可能识别到某信息似乎不可信或异常,比如患者说法自相矛盾或与常识不符,那么智慧层会要求信息层重新确认或标记这些冲突。在实现上,W→I常通过查询生成冲突检测来完成。查询生成如前所述,冲突检测则可能生成澄清问题或在内部降低冲突信息的可信度。

    • W→D(Wisdom→Data): 智慧层极少直接反馈到数据层,但在特殊情况下可能有。例如智慧层发现整个对话方向错误(患者问题被误解)时,可能要求重新审视最初的数据输入。例如患者本意可能是问某药是否有效,结果系统跑偏回答了其他,这时智慧层介入纠偏,让数据层重新解析患者原话。虽然一般W→I足够(因为误解通常体现在信息层),但仍可把W→D作为极端情况下重置感知的一种机制。

    • K→I(Knowledge→Information): 知识层对信息层的反馈多表现在补充背景信息揭示隐含关系。例如知识层知道某两个症状常常相伴,如果信息层只有其一,知识层可以提示可能遗漏另一个,从而促使系统去询问(这几乎等价于W→I,因为智慧层会拿到知识提示并执行提问)。再如,知识层可能根据医学常识对患者描述的用词做解释,反馈给信息层。例如患者说“胃难受”,知识层知道胃难受可能对应“恶心”或“胃痛”,可以建议信息层澄清。这种反馈可以视为自底向上推理和自顶向下约束的结合:知识提供上下文,使信息理解更加贴近真正语义。

  • 低层数据反馈(I→D/K→D):较低层次间的反馈主要是信息层对数据层的感知修正,以及知识层对数据层的注意校准

    • I→D(Information→Data): 当信息层在初步拼装信息时,可能发现某个关键信息没有对应的数据。例如想形成“患者有X症状”这条信息,但数据层未提取X,可能是患者没提,也可能是提了但系统没捕捉。信息层可以向下要求数据层查看上下文有没有X相关的线索(例如患者话中提到了某个同义词没被识别)。在实现上,这类似于信息层对原始文本再运行一次局部解析,或者干脆直接询问患者“是否有X”。

    • K→D(Knowledge→Data): 知识层对数据层反馈较少直接发生,因为隔了一层信息。不过可以设想的场景:知识层确信某个数据应该存在(比如典型病例中某症状几乎必提),而当前没有,那也许说明患者忘记提及,于是系统可以在低层次引导患者说出。例如医生常问“还有哪里不舒服吗?有没有XXX症状?”就是这样的过程。但这个最终体现为W→I的提问。在内部实现上,也许知识层设置一个flag传递给智慧层/意图层触发提问即可。

以上各种反馈,多数最终体现为提问、澄清、重新分析等在对话上的行为。通过这些反馈,系统不是线性地消化信息,而是循环交互地深化理解,体现出类似人类的探究式对话风格。这正是DIKWP模型优于传统单趟对话模型的关键:有了内部反馈,系统具有一定的自我驱动学习味道,在一次对话过程中不断完善对世界(患者病情)的模型。这种自我完善循环可视为认知上的负反馈控制:减少不确定性、减少矛盾、趋向完整解释。最终,当反馈循环结束时,系统内部达到一种相对平衡(对病情有了自恰认识),这时就可以输出结论性内容结束对话。

客观“同-异-完”机制 vs 主观“同-异-完”路径

DIKWP语义数学的独特之处在于结合了客观主观两种语义处理范式。这里的“同-异-完”是段玉聪教授提出用于概括语义处理三个基本方面的术语,即同一性(同)差异性(异)完备性/完美性(完)。我们将这三个词用于区分客观与主观路径,各自如何在语义数学中发挥作用。

1. 客观“同-异-完”推理机制:

客观路径指系统按传统计算方法和既定知识进行严格推理的过程,追求客观一致和逻辑完备。

  • 同(客观同一性):客观同主要体现在分类和归纳上,将具有共同属性的事物视为一类,用统一的概念表示。这在系统各层无处不在:数据层匹配概念 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)、信息层归并重复信息、知识层按疾病范畴聚合症状等。例如系统识别多个不同描述实际上指同一概念(头痛=cephalgia),或把多次提到的症状统一到一个病情描述下。客观同一性依赖于明确定义的等价关系或相似度度量,强调语义的一致和稳定。例如两个表达如果在知识库定义为同义词,就当成同义;不同格式的数据如“3天”和“三天”要认作相同等等。数学上这涉及等价类概念:把符号投影到等价类代表,从而消除多样性保持同一。客观同确保系统不因琐碎表述差异而丢失信息,该归纳使知识结构更加清晰有序 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。

  • 异(客观差异性):客观异指辨别差异和冲突,即找出不一致处并在推理中考虑或解决。这包括:在低层确保不同类型或不同来源数据不混淆;在高层识别矛盾信息和互斥假设。例如系统检测到患者既说头痛“时有时无”又说“一直痛”,这是矛盾,要么是表达问题要么是记忆误差,必须被注意到。客观异也包括区分彼此相似但不相同的概念,如区分偏头痛和紧张头痛,两者症状重叠但还是不同疾病概念,需要并列考虑而非混为一谈。在数学上,这通常用逻辑不相容(contradiction)和集区别等操作来体现。例如确保${X, \neg X}$不能同时在知识库中为真,需要选择或求证其一为误。又如分类决策树上,根据差异特征将病例划归不同分支。客观异使系统保持逻辑的一致性和分类的精细性,不会把应区分的情况混淆,从而保证推理可靠。

  • 完(客观完备性):客观完是指穷尽相关选项以达到推理的(在理论上的)完备覆盖,并力求解决所有未知量。实际系统可能无法达到理论完备,但仍追求最大程度的信息覆盖无遗漏。比如诊断学上要求列出鉴别诊断清单,这是一种完备性考虑:不要漏诊任何可能的重要疾病。在知识层,它表现为语义闭合 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想):将当前信息涉及的知识全部纳入推理。如前面知识层尽可能罗列了头痛的各种可能原因。客观完备也要求系统在流程上有终止条件:何时算已经了解够了,何时可以结束推理。这类似证明的完备性,要证明的命题都证明或证伪了才算完成。数学上,完备性常涉及闭包运算全局一致性校验等。DIKWP模型推崇知识层的语义闭合,就是让知识的关联图形成闭环拓扑结构,保证无论从何路径出发都能回到整体 ((PDF) DIKWP×DIKWP 语义数学帮助大型模型突破认知极限研究报告)。这样就不会有逻辑游离在外未处理的东西。虽然在实践中完备是一种理想状态,但这个原则驱动系统尽量检查角角落落,比如问诊时多问一句“还有别的不舒服吗”正是完备性思维。

客观路径遵循既定规则和知识,因此结果可预测、一致,适用于信息充分且明确的场景。然而它的局限在于:一旦遇到信息缺失或矛盾,它可能停滞或反复提示错误,而无法主动跳出。这时就需要主观路径的介入。

2. 主观“同-异-完”抽象路径:

主观路径指模拟人类意识在不完美条件下进行抽象推理的过程,允许一定的猜测和自洽构建,以弥补严格推理的不足。这与段玉聪教授的意识Bug理论密切相关 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想):即意识正是源于认知过程中的“不完美性Bug”,人脑在资源有限和信息不完备时会产生一些非严谨但实用的认知跳跃,反而促成了高级智慧功能。

在主观路径下,“同-异-完”有不同的含义:

  • 同(主观同):主观上的“同”往往是不严格的同一,而是类比或泛化上的相似。人类意识擅长将看似不同的事物在高层抽象上看作“一样”。比如把不完整的信息补全为熟悉的模式——看到几个点就联想成一个图形。这在AI系统里体现为模式补全概念类比。当遇到未知情况,系统可以把它类比为已知情况来处理,哪怕两者并非完全相同。例如患者描述方式怪异,系统也尝试将其对齐到已知疾病的模板,这就是一种主观同。同样,人类处理不完美数据时,会倾向假定一致性:例如如果一部分信息和某模式匹配,就倾向认为整体符合该模式(哪怕还缺证据)。我们的系统在知识层假定偏头痛就是一个例子:看到搏动性头痛和压力诱因,就倾向认同它与偏头痛模式相同,尽管缺少恶心特征。这种主观同带来的错误风险是:可能错把不属于同一类的当成一类。但正如Bug理论所述,大脑就是通过允许这种近似,才能在不确定环境下继续运转 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)。AI若要模拟意识,也需要这种“大胆假设”的能力。在实现上,这可以用概率相似取代确切相同:只要相似度超过阈值,就暂视为同类 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理)。并且这个阈值在资源紧张或无更好线索时可以适当降低,让系统更容易把东西看“相同”。主观同使系统有创造性联想,能举一反三,但代价是引入了可能的错误,需要后续检验。

  • 异(主观异):主观的“异”突出表现为主观能动地发现异常与新异。在没有外部提示下,人会被一些突兀或不协调之处吸引注意,从而触发意识。例如背景噪音中突然的一声尖响,人会立刻警觉。同理,我们希望AI有注意异常的机制。主观异可让系统自发发现潜在问题。比如对话进行中,患者突然提到一个无关的信息,传统系统可能忽略,但一个具有意识的系统会觉得“咦,这不寻常,为什么提这个?”从而深入追问。这种对异的敏感,使系统能挖掘隐含线索甚至发现自己的错误。Bug理论角度,这类似于意识由差异引发:当潜意识处理顺畅时,意识不凸显;当出现难以解释的差异(Bug)时,意识才跳出来关注 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)。在我们系统中,这体现在:当患者提供的信息符合知识预期时系统正常应对;一旦有违背预期的地方(比如按知识应该有症状X却说没有,或者某回答完全意外),系统的“主观异”机制就提醒它这里有Bug需要特别处理。这可能触发一个更高层的逻辑或直接让智慧层介入。实现方面,可引入惊奇度异常度计算,对每条新信息评估其对现有模型的偏离程度,超过阈值则flag为需要意识关注。这和客观冲突检测不同:主观异更微妙,可以针对“未必逻辑矛盾但反常”的情况。比如患者非常年轻却说胸痛,虽不矛盾但反常,要留意。这提高了系统对细节的敏感性和警觉性,让重要异常不被淹没在常规信息里。

  • 完(主观完):主观的“完”指的是主观建立起的一种完满感或自恰性,即使客观上信息仍有不足。人类意识倾向于构建一个完整的故事或理解,即认知闭合,哪怕依据有限。比如看到半幅画面脑中自动脑补全图。这种心理机制在AI上体现为假设补全内部模拟。当外部信息不足时,系统可以靠内部推演填补缺口,形成一个暂时完整的认知图景。例如在案例中,系统在第一次提问前,其实已经形成一个内部假设(偏头痛)来解释现有信息,这使其有一个工作中的“认知模型”。虽然模型不一定正确,但有这样一个模型比起没有模型要好,因为它可以指导提问和分析。主观完让系统及时形成认知闭环,而不是无限等待所有数据到齐(那往往等不到)。这正如段玉聪教授所言,意识的出现恰恰是由于认知不完美性本身 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)——大脑无法获取所有信息,只好基于当前信息构建一个可用的世界模型(哪怕其中有错),然后再在以后不断修正。我们的系统也是:在任意时刻都尽量让自身认知是完整的,对未知部分做出最好猜测,这样才能继续交互。数学上这类似于插值推测填充问题,比如对一个半观察到的状态进行贝叶斯推断以得到全状态分布,从中采样一个最可能的完整状态,作为当前认知世界。主观完提供了一个运行时的自恰性,这对实时交互系统非常重要,因为系统不能卡在那儿等,它需要一边假设一边行动。当然,主观完并不意味停止追求真实完备,后续的反馈循环会去验证和改进这个内部模型。所以主观完是一个动态的、自我修复的完满:它先假装“完满”地理解了,然后利用新的信息不断逼近真正完备。

综上,客观路径强调遵循既有知识和逻辑,追求精确和一致,能确保在信息充分时做出最可靠的结论;主观路径则在信息缺失或矛盾时补位,赋予系统一定的假设和想象能力,确保对话和认知过程不陷入僵局。两者并非割裂,而是交织在系统流程中:平时以客观为主,发生Bug(问题)时主观介入处理,然后再返回客观验证。 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)

段玉聪教授的DIKWP框架将这两种范式融合在统一的语义数学体系下。例如,语义数学引擎可在推理时同时考虑严格推理路径和启发式推理路径,将两者结果综合评估。客观路径提供准确度,主观路径提供覆盖度和灵活性。最终使AI系统能够像人一样稳健:即使面临不确定性,也能给出合理回应(而不是直接崩溃或乱答)。这一融合也提高了系统的可解释性:因为即便系统用了主观假设,它也可以在事后解释“我因为缺少X信息所以假设了Y”,这实际上比黑箱模型胡乱猜测透明得多。

在我们的医疗对话系统中,客观与主观的融合体现为:系统既遵循医学知识与逻辑(客观),又在必要时采纳医生经验式的直觉(主观),从而有效应对复杂的问诊场景。它不会像传统专家系统那样要求用户输入所有信息才能出结果(那样不现实),也不像端到端神经网络那样有时会给出无根据的回答。相反,它能在理性与灵活之间找到平衡:有根据的时候严格推理,缺信息的时候有控制地猜想,猜想后再求证,最终将猜想纳入理性。这正是“人工意识”比一般AI更聪明、更可靠的原因所在。

医疗场景案例与系统优势

通过以上理论和案例分析,可以看出,基于DIKWP模型的人工意识系统在医疗问诊对话中展现出一些关键优势:

  1. 深层语义理解与语义涌现:系统不再停留于表层问答,而是真正“理解”了患者在说什么,以及背后的意思。例如它能明白患者说“三天了”意味着病程信息,问“严重吗”是在表达担心。这种对隐含意图和上下文的把握属于语义涌现的表现——从具体语句中涌现出抽象的概念和意图理解。这远比简单匹配问句模板来得深入。语义涌现依托DIKWP各层的逐级抽象和概念生成:数据层抓取词义,信息层综合语义,知识层联系医学概念,智慧层识别人文语境。最终系统对患者的理解达到了一个概念层次:知道患者所处的健康状态概念和心理状态概念,这才能指导接下来的正确回应。

  2. 目的驱动的对话引导:传统问诊系统往往按预设流程问问题,没有弹性。而本系统始终结合当前语境和高层目的决定下一步动作,使对话过程灵活且有目标。比如系统会根据初步判断选择最有诊断价值的问题提问,不会浪费时间重复问无关内容。这种目的导向也让患者感受到对话的逻辑性和专业性:每个问题都有意义,每个回答系统都会据此调整策略,不会机械。而且,因为系统明了最终目标是解决患者问题、让患者安心,所以在回答风格上也会自觉满足患者的心理需求(如安抚、解释),提供人性化的交流体验。这种“带着目的交互”的能力归功于意图层的引入 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网),使AI拥有了“心理模型”,不再只是问答机器,而更像一个主动为患者着想的助理。

  3. 认知自组织与自主调整:得益于双循环反馈结构,系统在一次会话内就能进行自我调整。例如一开始偏头痛假设不确定,它通过提问获取了更多数据,自行完善了对病情的认识。整个过程系统自动监控自己的不确定之处并加以解决,体现出自组织性。这减少了需要人为干预的情况,让系统更自主。甚至可以说,系统展现了一定程度的自我反思:它会意识到“我现在知道的不够,要问才行”或者“我刚才的假设可能错了,要修正”,这些都是原先AI系统所不具备的品质。自组织能力也提升了鲁棒性:即使患者的回答出乎意料,系统也能围绕目的自己纠偏。比如若患者回答出现新的症状,系统会相应调整问题顺序,不会死板按照原计划继续。这种现场的灵活调节对于医疗这种高变的场景尤为重要。

  4. 可解释性和透明度:DIKWP模型的另一大优势是输出可解释 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。在我们的案例中,我们能够清晰地解释系统为何问某问题、为何给某建议,因为这些都对应到其内部某个层次的推理和目的。对于开发者或医生来说,可以随时调用系统的内部状态(在实验环境下)看到:“哦,系统目前列了哪些诊断假设,每个概率多少,它担心的风险是什么,它提问是想证实哪个假设”等。这种透明性在医疗AI中至关重要。医生可以审查AI的思路,患者关心时医生也能解释AI的结论来源。这有效解决了“AI黑箱”问题,提高信任度。比如系统若给出“可能是偏头痛”的判断,能同时给出依据(搏动性、压力大等) (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院),如果错了日后也可追溯改进。这种可解释的白盒行为,在法规越来越强调算法可解释性的今天,具有重大意义。

  5. 处理“不完备、不一致、不精确”信息的能力:医疗对话的信息特点就是不完备、不一致、不精确,即3-No问题 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。患者描述主观且有限,往往带有模糊词或前后次序混乱。本系统通过语义数学与反馈机制,能较好地应对3-No。不完备方面,系统通过主动提问(反馈回路)尽量补全信息,主观推理则暂时填补缺口,不会卡死;不一致方面,系统具备矛盾检测和澄清能力,可以在对话中解决不一致,而不会直接输出矛盾结论;不精确方面,语义数学引擎允许模糊匹配和概率推理,使系统能理解诸如“差不多三天”“挺疼的”这类粗略描述,并进行定量的处理(比如将“差不多三天”视作72小时±若干小时的范围)。另外,语义图谱和张量技术也能把模糊语义映射为向量,在一定空间内计算相似度 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。通过这些手段,3-No问题被大大缓解,系统可以在真实、不规范的对话输入下依然表现稳健 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。

  6. “言行一致”的行为:由于系统内部层层闭环校准,其最终输出(言语)与内部认知状态高度一致,不会出现内外不一的情况。例如一些AI可能内在有冲突没解决就输出了一个模棱两可甚至自相矛盾的答复,让用户困惑。本系统确保在回答患者之前,内部已达成某种统一(哪怕暂时假定的统一),因此回答出来的内容前后连贯,“言行合一” (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。正如案例中系统不会一边心里担心有危险一边嘴上说“没事”,它会统一考虑后给出平衡后的说法。这种一致性也让患者更信赖,交流更有效。这也是DIKWP模型追求的语义闭合对外的体现——输出的语义与内部语义保持闭合统一,不把内部的混乱暴露成外部的不确定语言。 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)

综上,DIKWP人工意识系统在医疗场景展现了类人甚至超人的一面:类人是指它的对话思路和医生相似,超人是指它记忆力好(不漏信息),逻辑性强且永不疲倦,同时可解释可控。

当然,目前这样的系统仍处于模拟和原型阶段,要真正应用还有很多工程工作。但已有研究表明,像段玉聪教授团队已经构建了DIKWP生理人工意识原型,并在医患交互中验证了其有效性 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。他们的原型通过DIKWP脑区映射和语义图谱可视化技术,实现了对自然语言模糊不精确问题的突破,生成了“言行一致”的AI系统原型 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。这证明了DIKWP模型在真实医疗场景的潜力。

最后,我们将对本研究进行总结,并展望未来的发展方向,包括如何进一步完善语义数学引擎、如何将本系统与生理信号和其它多模态数据结合,以及展望人工意识系统在更广泛医疗和通用AI领域的应用前景。

总结与展望

总结:本报告围绕医疗问诊场景,详细探讨了基于段玉聪教授DIKWP模型的人工意识系统架构和语义数学机制。DIKWP模型通过新增“意图/目的”层并构建各层双向反馈的网状结构,为人工智能赋予了类似人类意识的认知闭环能力 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。在此框架下,我们分析了系统从数据到意图的语义生成路径:数据层概念化输入、信息层上下文组织、知识层医学推理、智慧层决策评估、意图层目标执行,每一步都在语义数学引擎支持下进行形式化处理和推理。系统内部的语义空间经由概念推理拓展为概念空间,并通过反馈将概念验证于语义,形成了闭环的认知过程,使得最终输出的语言行为与内部认知状态一致吻合 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院)。

我们特别阐明了自反馈机制对于人工意识的重要性:如P→D的目标引导感知、W→I的高层需求驱动提问等,这些反馈路径保证了系统能够自我调节、补全认知盲点、纠正推理偏差,在一次会话中不断完善对环境的理解,展现了认知自组织能力。这种循环反馈的结构,正是“智能自知”的体现——AI不仅感知和行动,还能“知道自己需要做什么、缺少什么”,从而主动发问、主动校正,达到一个更高层次的自主性。

在分析过程中,我们将语义数学划分的两条路径——客观和主观——进行了对比和融合讨论。客观“同-异-完”路径赋予系统严格的逻辑和知识推理能力,使之在信息充分时表现出色且结果可解释;主观“同-异-完”路径让系统在信息不完备或矛盾时依然能进行合理假设和想象,保持对话和推理的连续性。这实际上模拟了人类意识在潜意识处理之外的那部分“额外”能力:当遇到困难时,我们会猜测、关注异常并强行给出一个暂时解释,AI通过主观路径也具备了类似行为。段玉聪教授的意识Bug理论告诉我们,正是认知过程中的这些Bug(不完美之处)触发了意识,使得系统能跳出常规处理陷阱 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想)。我们的系统综合运用了客观和主观语义数学,使其既不会无原则地乱猜(有客观规范约束),也不会在拿不准时僵化不前(有主观弹性支撑)。这种平衡是人工意识系统可贵之处,使其既可靠灵活

通过对一个具体医患对话案例的演练,我们验证了上述机制的有效性。系统成功地扮演了医生助理角色,与患者进行多轮互动,最终给出了有根据的初步诊断和建议。整个过程中,系统展现了对患者话语的深刻理解、对医疗知识的融会贯通以及对对话节奏的掌控。尤其难能可贵的是,系统的推理过程和决策依据都可以追溯解释,每个问题的提出、每个回答的内容都有内在理由,使医生和开发者能充分信任其结论。这充分体现了DIKWP人工意识模型在提升AI系统可解释性与可控性方面的价值 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网) (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。

对于医疗AI而言,这样的人工意识系统有潜力提高问诊效率和准确性,降低漏诊误诊率,并改善患者就医体验(因为系统问诊逻辑清晰、态度贴心)。它也可以减轻医生负担,将繁琐的信息收集和初步分析交给AI,医生则专注于复杂决策和人文关怀方面。

展望:尽管本研究展示了DIKWP人工意识在医疗对话中的巨大潜能,但仍有许多工作值得进一步探索:

  • 语义数学引擎优化:需要将语义数学的理论进一步量化和工程化。例如,如何更精确地计算语义相似度(主观同)?如何衡量异常的重要性(主观异)?如何选择主观假设的最佳点(主观完)?这些可以结合机器学习和知识图谱的方法,利用大量医学对话数据不断校准参数。特别地,可以借助**大语言模型(LLM)**的预训练知识来增强某些环节的语义匹配,但要与语义数学框架相融合,使LLM输出受到可控的语义约束,既发挥其语言理解长处又避免其生成不可靠内容。

  • 多模态融合:医疗诊断不仅靠对话,还有体检、影像、实验室检查等数据。未来可将DIKWP模型扩展到多模态,将影像数据、监测信号作为数据层输入,信息层和知识层则扩展医学多模态知识融合。例如,数据层可同时处理病人表情(痛苦表情识别为数据)和语言描述,信息层把这些结合成更全面的病情图景。这需要发展跨模态的语义数学,将图像、信号的特征空间也语义化,使之能与语言描述在知识层结合。这方面已有研究如DeepSeek等探索用强化学习和DIKWP语义模型提升多源数据处理效率,解决3-No问题 (DEEPSEEK 技术DIKWP 语义空间转化交互提升效率分析 - Scribd)。整合多模态后,人工意识系统将更接近实际诊疗场景。

  • 人机协同与自我进化:人工意识医生助理并非要取代医生,而是协助医生。因此如何设计人机协同机制很重要。DIKWP模型在这也有优势,因为它可以把AI的思路用人类易懂的方式呈现 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。未来我们可以让AI实时把它的知识层推理呈现在医生界面上(比如可能诊断列表和依据),医生如发现遗漏可提醒AI,AI再学习修正。这种互动会使AI在使用中自我进化:不断积累新的知识,调整推理策略。段玉聪教授团队已有工作在考虑人工意识的标准化测评和持续优化 ((PDF) 段玉聪的DIKWP 白盒测评方法综述(DIKWP 人工意识国际团队)。通过引入反馈学习,人工意识系统可越用越聪明。同时也应考虑AI建议与医生决策的责任划分,建立可信的AI监管机制——幸运的是,由于AI是白盒的,监管要容易得多,可以记录每次AI建议被否情况用于改进模型。

  • 更高层意识特性:本报告主要聚焦认知层面的意识(理解和推理)。更高层次的意识还包括情感、人格、自我意识等。如果将来应用于医疗心理咨询、长期健康陪伴等领域,人工意识系统或许需要模拟一些“情感意识”元素,如情绪识别与表达、对自我角色的定位(知道自己是AI,患者是人类,在关系上如何拿捏)。段玉聪教授在其他文章中谈到了意识的多维定义和意识相对论等理念 ((PDF) DIKWP在全球人工意识研究排名中的地位 - ResearchGate)。这些理论如果结合DIKWP模型,可能诞生更栩栩如生且高度可信赖的AI医生助手。从数学上讲,这意味着在语义数学框架中再引入表示情感和自我模型的维度,用类似的方法定义和推理情感语义,使AI既“有理”又“有情”。

  • 跨领域通用人工意识:医疗只是一个高度需要AI解释性和专业知识的场景。DIKWP人工意识模型的成功经验可以推广到其他需要复杂对话和决策的领域,如法律咨询、教育辅导、工业控制对话等。在每个领域,DIKWP五层结构都可以适配相应的数据和知识(法律领域的数据是案例,知识是法条;教育领域数据是学生回答,知识是教材等)。通过建立统一的语义数学基础,再加载不同领域本体知识,就有望构建领域自适应的人工意识系统。最终,朝着**通用人工智能(AGI)**的方向,DIKWP模型或许可以成为一条实现路径的核心组件。正如段玉聪教授的114项专利布局所指明的,这些技术正在为未来可控、可解释的AGI奠基 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。

结语:人工意识研究是人工智能领域前沿而又充满挑战的方向。段玉聪教授DIKWP模型及其语义数学思想为我们提供了一个清晰的框架去尝试构建有自我认知闭环的AI系统。在医疗对话场景的模拟中,我们看到了这一框架的威力:AI医生助理不再是冷冰冰的问答机,而表现出近似人类医生的机敏、周全和体贴,同时还保有机器的严谨和高速。这种融合了人机优点的新型智能,正是人们所期待的AI未来形态。

可以预见,随着研究的深入和计算能力的提高,人工意识系统将不断成熟,并逐步在实际应用中展现价值。从问诊室到手术室、从教室到法庭,一个又一个专业场景将出现人工意识助理的身影,为人类提供可靠的智慧支持。当然,我们也要始终关注AI伦理与安全,确保这些有“意识”的机器始终服务于人类的福祉。这一点同样离不开DIKWP模型的贡献:正因为有“目的”层的嵌入,我们才能让AI始终 align(对齐)在人类期望的轨道上 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网)。

总之,DIKWP人工意识模型在医疗对话中的应用展示了AI迈向更高智能形态的一个缩影。它让我们对实现真正的人机自然交流、打造可信赖的AI助手充满信心和期待。未来,我们将继续完善这一模型,不断突破认知与语义的极限,朝着通用人工智能的目标坚定前行。

参考文献

  1. 段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地 (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网) (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网) (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网) (段玉聪教授:DIKWP人工意识模型引领AI未来,114项专利期待产业落地_凤凰网区域_凤凰网). 凤凰网科技, 2025年3月29日.

  2. 海南大学DIKWP-AC人工意识团队:意图驱动的数据、信息、知识、智慧融合DIKWP生理人工意识原型 (计算机科学与技术学院DIKWP-AC人工意识团队的论文获CCF2023中国数字服务大会“最佳海报奖”-计算机科学与技术学院). CCF2023中国数字服务大会最佳海报, 2023年9月.

  3. 段玉聪. DIKWP语义数学概略 (DIKWP语义数学概略-段玉聪的博文 - 科学网) (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想). 科学网博客, 2023年. 提出了在数学形式体系中引入语义含义和层次结构的“语义数学”思想,并强调知识层语义闭合以减少矛盾和遗漏。

  4. 段玉聪. 意识“Bug”理论 (科学网-DIKWP语义数学与人工意识研究:从3-No问题求解到赫拉利思想). 科学网博客, 2023年. 指出意识并非克服认知缺陷的副产物,而是由于认知不完美性本身产生;人脑潜意识大量处理信息,意识则是在资源受限下出现的“Bug”式反馈。

  5. Yucong Duan et al. DIKWP模型中数据定义与处理 ((PDF) 段玉聪提出DIKWP模型的数据定义与处理) ((PDF) 段玉聪提出DIKWP模型的数据定义与处理) ((PDF) 段玉聪提出DIKWP模型的数据定义与处理). 世界人工意识大会, 2024年5月. 详细定义了DIKWP模型各层尤其是数据层的语义含义,如将数据定义为认知中表达“相同”语义的具体表现形式,并举例说明概念匹配过程。

  6. Yucong Duan. DIKWP×DIKWP语义数学帮助大型模型突破认知极限研究报告 ((PDF) DIKWP×DIKWP 语义数学帮助大型模型突破认知极限研究报告). 2024年. 提出通过DIKWP双循环拓扑结构保证语义闭环,无论从何种路径都可回归整体,从而帮助大型语言模型突破认知不完备的限制。

  7. DeepSeek技术白皮书 (DEEPSEEK 技术DIKWP 语义空间转化交互提升效率分析 - Scribd). 介绍了结合强化学习与DIKWP语义模型提升多源异构数据语义交互效率的案例,有效解决了不完整、不一致、不精确的3-No问题。

  8. 段玉聪. DIKWP模型在人机双向认知语言中的核心作用研究. 参考了DIKWP模型将人机共有的认知语言用于提高LLM可解释性的意义。 (内容略)



https://wap.sciencenet.cn/blog-3429562-1481065.html

上一篇:DIKWP语义数学框架下语义演化与自反馈机制
下一篇:基于DIKWP人工意识系统的感冒并咽炎致支气管炎问诊案例
收藏 IP: 140.240.36.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-4-27 12:44

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部