DIKWP语义司法推理:AI与法律中的语义正义框架
段玉聪,梅映天
摘要
法律推理的语义建模正成为AI与法律交叉领域的关键前沿,有望提升司法过程的透明度、公正性,并使其更好地契合法律的根本意图。本文提出一种基于“数据–信息–知识–智慧–意图”(DIKWP)模型的语义司法推理全栈框架。基于段玉聪教授关于DIKWP模型的开创性工作,我们提出一种严谨方法学,将传统法律裁判流程——通常局限于概念性、符号化表示——转化为语义增强的DIKWP图谱表达。我们采用DIKWP×DIKWP的双向映射机制,将客观法律内容与主观利益相关者的认知相融合,从而实现我们所称的“语义正义”。所谓语义正义,是指司法推理在DIKWP图谱构成的共享语义空间中直接进行,从而确保裁判不仅依据形式法理知识,也充分考量相关方的语境语义。
我们提供了DIKWP语义法律知识表达的形式定义,并制定了从传统法律概念到DIKWP语义结构之间的映射算法。文中通过一个现实的行政法案例说明该框架:我们构建了一个DIKWP(内容)图谱来表达法律规则与证据,构建一个DIKWP(利益相关方)图谱来表达当事人的观点与目标。借助以意图为导向的双向语义变换,该框架实现了法律推理与当事人认知语境的对齐,提升了解释性与公平性。我们提供了语义转换流程图及映射算法的伪代码以证明其计算可行性。通过对该案例的定性分析结果,我们发现DIKWP语义空间中的推理过程能够揭示潜在假设、弥合法官与参与方之间的认知差异,并通过对齐裁判结果与法律本意来维护公平正义。
本研究在已有DIKWP法律建模应用的基础上,进行推广与升华,构建了面向语义司法AI的通用框架。该方法跨越“数据到意图”的语义谱系,在语义图谱上操作,显著增强了法律裁判的可解释性,并在决策过程中直接嵌入了规范性目标(如公平、政策意图)。我们最终认为,DIKWP语义推理可为新一代法律AI系统奠定基础,使其不仅逻辑上严谨,而且在语义上透明,并具备正义性。
1. 引言
确保人工智能系统在法律环境中做出公正、透明的决策,是AI与法律领域的核心课题。传统法律推理建模方法主要依赖符号性、概念化的表示方式——例如基于规则的专家系统和将法律与判例编码为抽象符号或谓词逻辑的形式系统。虽然这些系统可以模拟法律推理的演绎结构,但它们通常仅在概念层面运行,与人类法官理解法律时所使用的更丰富的语义语境脱节。这种脱节可能导致裁判在狭义上符合法律规范,却偏离法律背后的意图与公平原则。
为弥合此鸿沟,本文提出一种基于DIKWP(数据–信息–知识–智慧–意图)模型的语义建模方法,旨在将法律推理过程锚定于一套涵盖规则、语境、价值与意图的全面语义表示中。
研究动机。 法律人工智能的最新发展凸显出在自动决策中引入更深层语义与可解释性的必要性。尽管黑箱机器学习模型在预测案件结果或解释法条方面取得了显著准确性,但它们缺乏透明性,在司法领域中难以取得正当性。而即便是基于规则的系统与本体,也往往将法律知识处理为抽象内容,忽视了法官、律师与当事人如何在认知与意图驱动下理解案件。例如,一个法条可以形式上适用于某案件,但如果裁判忽略了其本意或当事人对公平的认知感受,结果可能仍显失衡。本文提出的“语义正义”概念正是为回应这一问题:当法律推理发生在能够表达法律意图与当事人视角的语义空间中,才有可能实现真正的正义。
DIKWP模型背景。 DIKWP模型由段玉聪教授提出,在经典的DIKW(数据–信息–知识–智慧)金字塔之上增加了“意图”(Purpose)维度。这一拓展体现出真正有意义的决策,尤其是在法律等领域,必须由对目标、意图或价值的理解所驱动(即“为何”采取某行动或制定某规则)。在DIKWP框架中,原始数据(D)通过差异识别被解释为信息(I),信息进一步组织为知识(K),例如法律规则或案情知识;知识被应用并置于上下文中,转化为智慧(W),类似于司法原则或经验判断;所有这些层级最终由“意图”(P)引导——在法律语境中,这可能体现为正义原则、立法政策目标或当事人所寻求的终局结果。
该模型不仅提供了概念层级,也支持构建各层级对应的语义图谱——数据图、信息图、知识图、智慧图与意图图——共同构成特定领域或问题的DIKWP图谱表示。该结构化、多层次表示在以往研究中已被用于分析不确定性高、语义复杂的领域。例如,DIKWP已被应用于金融监管合规、医疗纠纷解决、甚至人工意识建模。这些研究证明了DIKWP能够将客观内容与主观语境融合,从而提升可解释性与对人类价值的契合度。特别是在一项医疗纠纷解决的研究中,DIKWP语义模型成功统一了医生与患者的外在表达与内在认知,建立了一个透明的互动模型,缓解了认知鸿沟。在另一个法律纠纷场景(被称为“生物诉讼”)中,研究者将案件文书内容映射为DIKWP(内容)图谱,将各方认知理解映射为DIKWP(利益相关方)图谱,并通过图谱遍历与融合来解决信息不一致与缺失问题。这些成果启发我们将DIKWP方法进一步推广为面向司法推理的通用语义模型。
研究目标。 本文旨在构建一个全面的、基于DIKWP的语义司法推理框架。核心思想是将法律裁判流程——传统上被建模为一系列概念符号的逻辑运算——转化为在DIKWP语义图谱内外的遍历过程,从而使法律推理得以在丰富表达法律知识及其语境的语义空间中进行。我们具体的研究目标包括:
1. 形式化建模: 基于DIKWP定义法律案件的语义模型,包括法律场景中DIKWP(内容)与DIKWP(利益相关方)图谱的精确定义,以及连接D、I、K、W、P各层之间关系与转换函数的数学形式。我们将说明如何将案件中的典型要素(事实、证据数据、法律规则、判例、原则与意图)映射至DIKWP结构。
2. 双向映射方法: 构建DIKWP×DIKWP的双向映射方法,将语义内容空间与利益相关方认知空间连接起来。换言之,我们设计一套算法,将传统描述的法律问题(如一组事实与规则)映射至DIKWP语义表达中,并能将基于DIKWP的推理结果反向转化为人类可理解的裁判理由(如书面判决)。双向性至关重要:它确保了当事人认知(知识、价值与意图)影响法律内容的解释过程;反之,法律内容也被转化为与当事人语境相契合的表达。
3. 案例验证: 将所提框架应用于一个现实的行政法案例中,展示语义司法推理的实际操作过程。我们选择行政法案件,因为此类案件通常涉及个人或组织与政府机关的争议,突显了公平性、程序性与政策意图等关键问题。通过对一个行政争议(如对监管决定的上诉)进行建模,我们将展示如何构建法律与事实内容的DIKWP(内容)图谱,以及如何构建各方观点(如上诉人意图与行政机关政策目标)的DIKWP(利益相关方)图谱。案例研究将逐步演示双向语义转换过程,展示如何达成一个同时满足法律义务与语义理解的裁判结论。
4. 可解释性与公平性评估: 从概念层面评估在DIKWP语义空间中进行推理对可解释性与公平性的影响。我们的假设是:通过显式引入“意图”维度,并通过认知–内容对齐,推理过程将更具透明度(每一步推理可通过语义图谱路径追溯)与公平性(裁判理由更能体现法律本意与当事人境遇,而非仅满足形式规则)。我们将结合可解释性人工智能文献中的观点进行探讨,并进一步讨论本框架如何通过语义建模自然应对法律AI中的常见难题,如信息模糊/不完整、偏见等。
主要贡献。 本文在理论与实践两个层面推动了AI与法律交叉研究的发展。从理论上看,我们提出了一种超越本体与规则的法律知识表示方法,将认知与意图论(teleological)维度纳入建模之中。我们首次正式定义了法律语境下的DIKWP图谱及其双向映射算法,构建了一个网络化的白盒法律推理模型,呼应了DIKWP在构建可解释AI方面的先验价值。从实践角度看,我们通过案例研究展示了如何将该框架用于构建语义司法推理系统。虽然完全自动化的“语义法官”仍属前沿探索,但本框架已可为法律决策支持系统提供蓝图,协助法官与律师处理复杂案件。通过为法律论证提供语义支撑结构,该系统可确保裁判既符合法律文本,又契合法律精神,且向当事人可解释。
总之,本框架旨在将法律AI推向“语义正义”的方向——一种不仅形式上正确,而且在语义上透明、在实质上公正的司法智能。
2. 背景与相关工作
2.1 法律人工智能中的传统概念表示
人工智能在法律领域的应用历来采用符号化与概念化的方式来建模法律知识与推理过程。例如,基于规则的专家系统将法律法规表示为“如果-那么”规则或决策树;而基于案例的推理系统则将过去的案例抽象为因素与结果的组合,以支持类比推理。这些方法对应于我们所称的法律推理的“概念空间”——即将具体事实抽象为法律范畴,并依据形式逻辑或算法进行操作的层级。
这些概念模型催生了一系列具有代表性的系统,例如:20 世纪 80 至 90 年代的早期专家系统,如 Taxman 及类似 MYCIN 的法律顾问系统,能够依据编码规则适用税法或提出法律建议;又如 HYPO 与 CATO 等基于案例的系统,能在商业秘密或合同纠纷中基于高层次因素展开推理。然而,尽管这些系统在“概念”层面运行,它们在很大程度上忽略了这些概念背后的语义丰富性——即赋予法律规则意义的上下文、解释与意图。
纯概念(或句法)模型的一个关键局限在于难以捕捉法律规则背后的意图,以及事实语境中的细微差异。例如,专家系统中的一条规则可能为:“如果某机构存在违规行为 X,且其严重程度大于 Y,则实施处罚 Z。”这种逻辑规则会在条件满足时被机械地适用。然而,在实践中,法官与监管者会考虑上下文:该违规行为是故意还是偶然?实施 Z 处罚的意图为何——震慑、惩戒,还是补救?是否存在利害相关方的情境因素(如合规的善意努力),从而可能导致不同的结论?
传统的符号 AI 难以处理此类问题,因为这需要超越字面规则的知识——即“元法律知识”(如比例原则、公平原则)以及“利害相关方知识”(如被监管方的动机与行为努力)。这些类型的知识常常被 DIKWP 模型归类为“智慧(Wisdom)”与“意图(Purpose)”层,而这些层级通常在传统概念模型中缺失。
另一个不足是可解释性问题。虽然基于规则的系统理论上是可解释的(因为可以追踪触发的规则链),但其所提供的解释往往仅停留在概念层面(如:“因满足条件 X 与 Y,故施加 Z 处罚”)。这类解释很难说明该结果是否公平,是否与更广泛的法律原则一致,也难以揭示在其他情境下可能做出的不同决策——而这些维度对于人类是否接受 AI 决策尤为重要。近期有关可解释人工智能(XAI)的研究表明,在法律等高风险领域,用户关注的不仅是系统做出何种决定,更在于该决定是否正当、合理。
法律本体与知识图谱。 为丰富法律知识的表示方式,研究者们开发了多种法律本体(legal ontologies)与法律知识图谱。例如,LKIF、LegalRuleML 及某些领域专用本体(如知识产权法、合同法本体)为法律概念及其关系提供了结构化的词汇表与语义框架。一个本体可能会表示“许可证(License)”是一类“许可(Permit)”,由某机构颁发,且具有诸如到期时间、附加条件等属性。
这些方法为法律知识添加了一定的语义结构,支持使用语义网技术(如 RDF、OWL)进行推理与一致性检查。法律知识图谱则更进一步,通过实际数据实例化本体结构:节点表示具体实体(如案件、法规、人员、组织),边表示法律关系(如“引用”、“授予”、“违反”)。近年的一些研究构建了法律与判例的知识图谱,用于辅助法律检索与推理。例如,Li 等人(2024)构建了一个包含数千个三元组的中国法律知识图谱,将犯罪行为、法律条文与犯罪构成要素连接起来,支持刑事案件的结构化分析。
本体与知识图谱在一定程度上代表了从概念表示向语义表示的迈进:它们赋予法律术语以含义,并在一定程度上建立语义联系。然而,它们通常集中于 DIKWP 模型的“知识层(Knowledge)”(即结构化的领域知识),有时涵盖“信息层(Information)”(即作为数据点实例的事实),但很少明确纳入“智慧(Wisdom)”或“意图(Purpose)”层。
换言之,一个法律知识图谱可能会编码如下知识:“违规行为 X 的严重程度为高”,“高严重程度的违规行为根据法规 Y 应予以停业处罚”,这类知识固然有用,但其可能并未编码监管意图(如“保护公众健康”)或高阶原则(如“执法应与风险成比例”),除非这些内容被显式建模为本体概念(这在实际中既具有挑战性,也常被忽视)。因此,关键上下文仍可能丢失。
此外,利害相关方的视角——即当事人如何感知与受到决策影响——并不在典型的法律本体之中。
概念与语义之间的鸿沟。 我们将“法律人工智能中的概念-语义鸿沟”定义为:操纵抽象法律符号与理解其语义含义之间的差距。传统系统处理的是前者;我们的目标是处理后者。
举例而言,设想一个行政法场景:某餐厅因被查出卫生违规而被吊销营业执照。从概念上讲,规则可能是“若发现严重违规,吊销许可证”。传统概念 AI 系统会毫无例外地适用该规则。而语义推理系统则会进一步理解:违规的具体行为是什么(数据)?与常规相比有多严重(信息)?法规有何要求,与之相关的健康风险知识有哪些(知识)?是否存在减轻处罚的情形或合规努力,需纳入智慧应用的考量(智慧)?最终,该法规的意图是什么(意图)?
如果该意图在于“保障公众安全”,而违规行为较轻且已迅速整改,那么语义系统可能会判断采取更温和的措施(如警告或罚款)也能实现该意图,从而达致公平、契合法规意图的结果。这种细致的推理过程正是法官与监管者常做的事,我们的目标是通过形式化模型将其显式表达出来。
2.2 DIKWP 模型:语义数学与人工智能应用
DIKWP 模型是人工智能领域“语义数学(semantic mathematics)”研究的一部分,该术语由段玉聪教授及其团队提出,旨在以数学上严谨的方式处理跨认知层级的语义问题。从根本上说,DIKWP 主张:任何理解过程都可以视为在五个层级间的转化,即数据(Data, D)、信息(Information, I)、知识(Knowledge, K)、智慧(Wisdom, W)和意图(Purpose, P)。每一层级对应于某种语义抽象与认知加工的深度:
· 数据(D): 在 DIKWP 中,数据被视为原始观察或事实,但重要的是,这些数据并非没有语义。相反,数据是“在认知中具有相同性语义的具体表现”。这意味着即使在数据层,我们也假设认知主体已经识别出某种模式或类别(即“相同语义”)存在于原始输入中。例如,在法律案件中,数据点可能是 0.08 的血液酒精含量,或作为证据呈现的一封电子邮件文本。这些都是具体的,但只有在认知主体将其识别为某种实例(如“血液酒精含量”或“当事人间的通信”)时,它们才具有意义。形式化地说,可将数据图(Data Graph, DG)理解为一组数据节点,这些节点连接至表征其类型的语义标签或标识符。
· 信息(I): 在 DIKWP 中,信息常被定义为“一个或多个在认知中具有差异性的语义”。信息在识别出相较于既有认知或预期之差异时产生,是被赋予上下文或关联含义的数据。在法律诉讼中,“被告的血液酒精浓度是法定限值的两倍”即为信息——它是将数据置于语境中产生的(与规范的差异)。信息涉及关系与对比:当一个数据点与某一参照物(阈值、模式、其他数据点)相比时,它才成为“信息”。信息图(Information Graph, IG)通常将数据节点与其他参照点或类别相连,以突出这些差异性,例如将“0.08 BAC”与法定限值连接,表明其等于限值;若为 0.10,则连接至“超出法定限值”等概念。在行政法中,一个例子是将某餐厅今年的违规次数与去年相比(这体现了趋势或差异性信息)。
· 知识(K): 知识是从信息中提炼出的结构化理解——包括规则、模型或分类体系。它通常是形式化的领域知识。在法律领域,知识包括法律条文、法规、案例先例,以及法律概念之间的逻辑关系(例如,“若满足条件 A 和 B,则结论为 C” 即为一条法律知识)。在 DIKWP 中,知识图(Knowledge Graph, KG)将信息节点组织成一致的结构,如将条件与结果连接形成法律规则,或通过分类系统将具体概念连接到更高阶类别(如“餐厅”是“食品经营单位”的一种)。DIKWP 强调,知识既是“概念性的”,也是“语义性的”:前者关注普遍化的思想(如法律门类),后者则将这些思想锚定于信息和数据的语义联系中。段教授在定义 DIKWP 中“知识”的相关工作中进一步将知识区分为“概念知识”与“语义知识”,指出知识既可从形式概念角度理解,也可从其在语义语境中之锚定方式理解。在本研究框架中,法律知识图(如法律本体与规则)构成 K 层的核心组成。
· 智慧(W): 智慧可能是最抽象的层级,它涉及判断力、原则、伦理与将知识与经验综合后作出恰当决策的能力。在 DIKWP 中,智慧可视为元知识,或指导知识如何被适当运用的机制。在法律中,这相当于“法理智慧”:例如公平原则、比例原则、惩戒与矫正的平衡原则,以及专家累积的实用性考量。智慧还可包括策略性思维(如法官意识到机械地适用某一小规则可能导致个别情境下的不公)。虽然“智慧图”(Wisdom Graph, WG)不像数据图与知识图那样常被讨论,但我们可将其构想为原则及其之间关系的网络,例如将“保障公共健康”与“避免不必要的经济损失”两者作为需在执法中权衡的原则进行连接。在既有研究中,DIKWP 模型被用于构建“白盒”AI 评估方法,其中智慧层等价于 AI 系统中价值对齐或高层次推理动因的表达。在法律 AI 中,W 层可表示来自先例的推理模式(precedent wisdom)或诸如量刑指南、解释原则等用于指导法律知识(K)运用的指导性规则。
· 意图(P): 意图层是整个推理过程的驱动因素——即赋予推理方向的目标或意图。DIKWP 的一大特征就是显式建模“意图”,而传统 AI 系统往往只隐式设定目标。在法律情境中,意图无处不在:每部法律都有其立法意图或“立法精神”,司法程序亦有其目标(公正、高效地解决争议),而利害相关方也有其意图(他们希望实现的结果,或其所秉持的价值)。意图图(Purpose Graph, PG)即用于捕捉这些目标与动因。例如,食品安全条例的意图可能是“防止因食品污染引发的公共健康风险”;某餐厅经营者的意图可能是“在确保顾客安全的前提下维持经营”。对齐这些意图对于实现公平至关重要:若执法行为(如吊销营业执照)在个案中实际上并未实现监管意图,或不当地打击了当事方的正当意图,则可能存在司法不公。意图节点亦可连接至智慧节点(价值通常决定意图)与知识节点(某些法律明确声明其意图,可作为链接项)。
DIKWP 模型通过区分这些语义层级,支持双向推理:自底向上(数据 → 意图)与自顶向下(意图 → 数据)。自底向上对应于经典的数据驱动型推理:收集事实 → 形成信息 → 应用知识 → 受原则指导 → 达成目标。自顶向下则对应于目标驱动型推理:在给定某一目标下,推导出应调用哪些智慧与知识、需要哪些信息、应关注哪些数据。法律推理往往融合两者。例如,法官可自底向上审查证据(数据),查找适用规则(知识)以得出结论(意图为解决争议);也可自顶向下,从法律之意图出发(如保障公共安全),确保对事实的解读与规则的适用服务于该意图,甚至据此对法律条文进行宽泛或狭义解读。
DIKWP 在法律相关领域中的既有应用。 如前所述,DIKWP 已被应用于与法律推理相邻的场景。2022 年,Mei 等人关于“生物类诉讼建模”的研究中采用 DIKWP 处理了一个纠纷解决场景,首次引入了 DIKWP(Content) 与 DIKWP(Stakeholder) 图的概念。在该研究中,作者将一宗诉讼中“多模态文本内容”(证据、法律文本、通信记录)映射为语义内容图,同时将每位利益相关方的认知理解映射为利益相关图。通过在这些图之间进行“遍历”,他们融合了主观与客观语义,据称有效解决了信息不一致或不完整的问题。这一融合过程由名为“本质—存在—意图推理”的机制支撑——核心思想是确保在裁决过程中,真正重要的事实(Essence)、确实存在的证据(Existence)、以及隐藏的意图(Purpose)三者协同一致。这一方法直接启发了本文对双向语义映射的设计。
另一项相关研究是 Mei 与 Duan(2024)在医疗纠纷中的应用。他们将医患对话建模为 DIKWP 流程:包括对话本身(如症状、诊断数据)的 DIKWP 内容建模,以及医生与患者内部推理过程的 DIKWP 认知建模。通过将“诊断偏差空间”(即理解或观点差异)语义映射至 DIKWP 框架,他们使用以意图为驱动的语义融合方法来消解误解。结果表明该方法显著提升了对话的透明度:整场互动可被解释为数据、信息、知识等的语义流,而非黑盒式决策。更重要的是,该研究结果展示了 DIKWP 如何提高可解释性,并成功桥接了双方认知差异,从而缓解了纠纷。此成果与我们本研究的目标相呼应:通过将不同的视角(例如公民与政府机关)嵌入共同的语义空间,实现认知对齐。
除上述应用外,DIKWP 还被用于物联网安全领域(Duan 等,2019),其中涉及对数据、信息、知识等资源进行建模以实现分布式保护。尽管不属于法律领域,该研究确立了 DIKWP 可形式化复杂系统的能力。此外,DIKWP 还作为人工意识与白盒人工智能研究的重要组成部分,用于构建跨层语义处理能力的 AI 评估标准。网络化白盒模型的核心特征,是其从数据处理到意图推理的整个认知流程均为“可解释”与“可审计”的,这与法律人工智能对解释性与责任可追溯性的要求高度契合。
语义司法:DIKWP 的语义扩展目标。我们在此提出“语义司法(semantic justice)”概念,用以描述当法律推理充分利用 DIKWP 语义模型时所应达成的理想状态。若法律裁决在 DIKWP 各层面上均符合语义合理性标准,则视为实现了语义司法:
· 事实数据被正确理解(无关键信息遗漏或误判),
· 信息得到适当的语境化处理(差异被合理识别与解释),
· 法律知识(法律条文与规则)得到恰当应用,
· 法理智慧(如正义、比例性原则)被尊重,
· 最终意图(例如司法公正、公共政策目标)得以实现。
换言之,这意味着一个裁决不仅在法律上是“正确”的,也在语义上是“有意义”的——它在具体情境中“讲得通”,并能体现立法意图。例如,在一个行政法案件中,某市民对政府处罚提起申诉。若实现了语义司法,即使市民最终败诉,也能理解裁决逻辑(裁决理由自数据至意图清晰可追溯),并看到该裁决未受无关因素影响,同时确有考虑其合法权益。社会公众也能感知该裁决与法律目标(如公共安全)保持一致,并遵循一致性原则(同类案件同等对待)。
实现语义司法,必须依赖类似 DIKWP 的整体性模型,并明确纳入利益相关者的语义视角。既有 DIKWP 应用为我们构建这一体系提供了基础:如前述医疗纠纷研究展示了如何通过双向语义映射解决理解偏差;生物类诉讼建模则表明主观/客观语义整合可有效处理信息不完备。本研究进一步拓展了这些成果,将其应用至司法推理场景,并在建模与推理流程上进行了形式化抽象。
与其他 AI 与法律研究的关系。值得一提的是,我们的方法与 AI 与法律领域的其他研究之间存在互补与区别。例如:
· 法律论证理论(Argumentation Theory): 抽象论证模型或法律论证模型主要关注推理的辩证结构——即正反观点如何建构与评估。这些模型通常位于 DIKWP 的“知识”与“智慧”层:论点本身是知识结构,评估论点则需调用如举证责任、公平性等智慧层原则。我们的 DIKWP 方法可作为补充,为论点的前提与结论提供语义基础,同时确保推理不仅逻辑上成立,也在“意图”层上达成目标。
· 基于案例的推理(CBR): CBR 使用过往案例作为类比推理的基础。在 DIKWP 框架中,先例可作为知识图的一部分(已知模式),也可作为智慧层的体现(从先例中提炼出的法理原则)。因此,可以将 CBR 纳入 DIKWP 的 K 层,通过连接新案信息至相似旧案节点,并引用其判决结果实现经验迁移(即智慧传承)。
· 机器学习方法(尤其是 NLP 与深度学习): 这些方法多操作于数据或信息层,例如对原始文本进行分类、提取、预测等。这类方法擅长识别模式,但缺乏显式知识、智慧与意图的表达。目前已有将知识图注入语言模型的研究,也有解释性 NLP 的初步探索。我们的研究属于正交思路:与其向黑盒注入知识,不如构建全流程以语义结构为核心的显性推理机制。当然,在实际应用中,仍可利用 NLP 技术填充 DIKWP 中的 D/I 层(例如用语言模型提取案情要素、对案件内容进行本体分类),也可将 ML 的预测结果作为智慧层的一种输入(如风险概率估计等)。
DIKWP 框架具备极强的模块化兼容性,既能嵌入现有 AI 模块,也始终坚持语义驱动的整体结构组织原则。
小结:我们的方法论受到以下背景认识的驱动与启发:(a)法律 AI 亟需更丰富的语义表达以实现公平与可解释性;(b)DIKWP 模型提供了一种在多个语义层上组织推理的原理性结构;(c)既有 DIKWP 在纠纷解决中的应用表明,语义整合内容与利益相关者视角可带来实际价值。
3. 方法学(Methodology)
在本章中,我们提出一种将法律裁决过程从传统概念空间表示转化为语义丰富的 DIKWP 表示的方法。该方法的核心是两个基于 DIKWP 模型空间之间的双向映射:一个表示法律案件的内容(法律、事实、证据等),另一个表示利益相关方的视角(即当事人的认知语义世界,包括其目标和解释方式)。我们将这两个空间分别记作 DIKWP(Content) 和 DIKWP(Stakeholder)。它们之间的映射(DIKWP × DIKWP)确保信息双向流动:法律内容能够根据利益相关方的语境进行解释,而当事人的语义也可被翻译为法律内容空间中的表达。
我们首先定义语境下的 DIKWP 图的形式结构,然后描述转换流程与映射算法,最后通过伪代码和示意图加以说明。
3.1 形式化定义(Formal Definitions)
为建立严谨的基础,我们以数学形式定义框架中的关键组成部分。这种形式化同时有助于分析映射的性质(如正确性、一致性),并为未来的实现提供指导。
定义 1(法律内容的 DIKWP 图)。一个 DIKWP(Content) 图,记作 ,是一个五元组
,其中:
· 是数据图,节点
表示案件中的原子数据元素(如一个原始事实、数值测量、日期、一段法律文本片段),边
表示数据之间的关系或身份链接(如将一份证据与来源连接,或将重复数据点关联)。
· 是信息图,节点
表示信息单元(每个编码一个有意义的差异或比较),边
捕捉如“差异”、“相似性”或信息之间的上下文关系。每个信息节点
通常由一个或多个数据节点
派生而来。我们定义一个满射映射
表示哪些信息节点由哪些数据节点生成(例如,数据节点“BAC=0.10”可能映射到信息节点“BAC 超出法定上限”)。
· 是知识图,其中
包含法律概念或规则的节点(如特定法规、“LicenseRevocationCriteria”等法律术语),
表示逻辑或本体关系(如“is_a”、“has_element”、“leads_to”)。知识节点也可表示实例化命题(如“存在违规 X”、“已满足条件 Y”),这些是将通用知识应用于特定信息节点的结果。我们定义一个映射
,表示哪些知识节点由哪些信息节点激活或支持。例如,“BAC 超限”可映射到醉驾法律条件的知识节点。
· 是智慧图,节点
表示高层级构造,如原则、启发式规则或经验性知识。边
表示这些原则之间的影响或依赖关系。在法律环境下,节点可能包括“PublicSafety”(公共安全)、“Deterrence”(威慑)、“Proportionality”(比例原则)、“PastCasePatternX”等。这些节点通常不直接连接数据,但我们定义映射
,将某些知识节点(如规则)与智慧节点关联(如规则背后的原则,或裁量空间的来源)。
· 是意图图,节点
表示目标或意图。在内容语境中,意图节点可以表示法律的立法意图或程序的总体目标(如“EnsureFoodSafety”“ResolveDisputeFairly”)。边
捕捉意图之间的层次结构或关联(例如,“EnsureFoodSafety” 是更广泛的 “ProtectPublicHealth” 的一部分)。一个映射
连接智慧与意图,表示哪些意图由哪些原则服务。
我们还定义所有节点的并集 ,以及所有边的并集
。整体上,
可视为一个层次化的多重图,或称网络的网络。每一“层”(D、I、K、W、P)提供不同语义抽象层级,而层间映射
将各层连接起来,确保每一数据元素都可以被追踪至其服务的某一意图,并且每一意图都可回溯至其支持数据(通过可能多个中间节点)。
定义 2(利益相关方视角的 DIKWP 图)。一个 DIKWP(Stakeholder) 图,记作 ,同样是一个五元组
。其结构与
相似,但每一层的节点解释特定于某一给定的利益相关方(该方可以是个人、组织,甚至是“理性人标准”的代表)。为了清晰起见,我们可通过索引标记这些图的主体身份(例如,若有多个当事方,可记作
,
等)。在某一单方上诉对政府机关的场景下,我们可能为上诉人(公民或企业)建立一个利益相关方图,而政府机关的观点可以视作已体现在内容图的意图层中(即法律执行意图由机关代表)。
的组件如下:
· :其中
包含利益相关方感知或提供的数据元素。这可以包括个人数据(例如“我于1月1日提交了申请”、“我有5年的合规记录”)或其视角中的证据(可能与内容图中的数据重叠,或为只有其本人知晓的额外信息)。
· :信息节点捕捉利益相关方对差异的理解或强调。例如,某方可能突出“我的案件与典型案件之间的区别”作为一个信息节点。映射
将其数据连接至信息层。
· :此处
包含该方的知识与信念。这可能包括其对法律的理解(无论正确与否)、对事实的掌握,甚至是规范性信念(如“我没做错事”或“法律规定机关必须考虑X”)。也可包括其过往经验(例如“上次遇到类似情况,只收到一个警告”)。此层实质上构成该方推理的认知模型。映射
将信息连接至其知识。
· :包含该方的价值观或原则。对个人而言,可能包括公平、经济生计的必要性(例如“若吊销营业执照,我将失去生计”)或道德考虑。对机关而言,智慧层可能包括其内部政策或执法理念(如“我们优先保障安全而非成本”)。映射
将知识连接至智慧(例如,该方知道某一规定存在,但其智慧可能是“该规定已过时,通常宽松执行”——这反映了他们所持的原则)。
· :表示该方的目标和意图。对上诉人而言,意图可能是“恢复执照”,或更广义地是“获得公平结果”、“维持运营”。可能还有子目标,如清除名誉损害、降低财务损失等。对机关而言,意图可能是“执行监管、保障健康”等。映射
连接该方的智慧节点至最终意图节点(例如,其在 W 层主张的公平原则连接至 P 层中的“获得公平处理”目标)。
每位利益相关方将拥有其独立的 。在多方案件中,我们可构建多个利益相关方图。为简化,本文方法学常以单一当事人与法律内容的对齐为主,但该方法可自然扩展至多方:我们可以将每一利益相关方图与内容图进行映射,甚至考虑不同当事方图之间的相互映射(尽管这超出当前范围)。本文的重点是将某一关键当事方(如上诉人)与内容图(法律与事实)对齐——这是裁判过程中的核心语义任务。
定义 3(语义映射函数)。我们定义两个互补的映射函数:
· :一个从法律内容图
的元素映射至利益相关方图
中语义对应元素的函数(或过程)。
· :一个从利益相关方图
的元素映射到法律内容图
中对应元素或结构的函数。
这两个映射横跨所有 DIKWP 层级,有效地建立了如下对应关系对 :其中
是内容图中的一个节点(或子图),而
是在不同语义上下文中表示“同一概念”或“同一现实方面”的利益相关方图中的节点(或子图)。例如:
· 内容图中的某个数据(如 DG 中的违规记录)可能对应于利益相关方图中的某个数据节点(如该方对违规行为的确认,或提出的相反证据)。
· 内容图中信息节点“违规行为属于严重等级”可能对应于利益相关方信息节点“此次违规不严重”——本质上是同一主张的不同表达。
· 内容图中的某条法律规则知识节点,若该方知晓该规定,可映射至其图中的对应知识节点。若不知晓,映射将缺失,此即为“认知错配”的关键情形。
· 内容图中智慧节点“执法应具比例性”可映射至利益相关方的智慧节点“我希望因轻微问题获得宽大处理”。虽表述不同,但本质上都关乎“比例执法”的原则。
· 内容图中意图节点“保障公共健康”可能对应利益相关方图中“安全经营我的餐厅”这一意图——两者虽不完全等同,但在理想裁决中可认为是“可兼容的意图”。
我们将 正式定义为一组跨层映射关系:
· :数据层的映射(如:机关记录的检查日期对应于当事人记忆中的检查日期);
· :信息层映射(如:“违规次数 = 3,属高频” vs “只有3次小问题,我认为很少”——此为不同诠释下的差异,需要判断冲突);
· :知识层映射(如法律条文、规则认知);
· :智慧层映射(如“执法应严格” vs “轻则宽容”);
· :意图层映射(如“公共健康” vs “保住饭碗”)。
类似地, 是上述映射关系的逆映射(虽然未必是严格的函数逆,因为在实际中映射可能是多对多或一对多的,需要进一步匹配与权衡)。
一致性与冲突:映射的一个关键任务是识别内容图 与利益相关方图
之间的一致性(alignment)与冲突(conflict)。我们定义:
· 若 与
存在层内映射关系
,且二者语义内容等价或兼容,则称
是“语义对齐”的。
例如:若 ,而
(同为违规次数),则二者对齐;若一方为“严重”,一方为“轻微”,则虽有映射但语义冲突。
· 若某对节点描述的是同一现实对象但语义值相差显著,则称之为冲突对 。
冲突对可发生于:
· 数据层(事实争议);
· 信息层(背景或解读不同);
· 知识层(法律认知冲突);
· 智慧层(价值观/原则不一致);
· 意图层(目标对立)。
例如,利益相关方可能主张“经济生存优先”,而法律意图为“公共安全”;若裁决无法同时满足二者,就必须设定优先级或妥协。
· 我们将所有识别出的冲突对集合记为 。推理的目标之一就是消解或最小化
,理想状态为零冲突,实际中则至少需通过语义解释说明为何某些冲突被优先采纳或忽略。
最后,我们引出以下推理机制:
DIKWP 图内的推理:每一个 DIKWP 图不仅是静态网络,也提供了语义推理的基础:
· 在知识层(K),可进行经典逻辑推理或本体推理(如法律适用条件满足则推出结论节点);
· 在智慧层(W),可使用类比或启发式推理(如激活某个原则后倾向某种解释);
· 在意图层(P),可自上而下进行目标导向推理(如:要达成某意图,激活哪些智慧或知识节点?)。
我们的整体方法就是将“映射”与“推理”交替进行:当我们将内容图映射到利益相关方图时,可能发现后者有一些未被内容图包含的知识,那么就可将其补入内容图,反之亦然。这一动态过程确保两个语义图逐步趋于共识。
3.2 转换流程概览
在深入算法细节之前,我们先提供一个高层次的转换流程概览,见图 1 所示。
图 1:使用 DIKWP 进行语义司法推理的概念性流程管线。左侧为法律内容(Content),被解析为一个 DIKWP(Content) 图,覆盖数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)与意图(Purpose)层。右侧为利益相关方视角,被建模为一个 DIKWP(Stakeholder) 图,跨越相同的语义层级。中间的双向映射(用虚线表示)连接两个图之间的对应节点。裁决者(如法官或 AI)在认知空间 → 概念空间 → 语义空间中进行推理(图中中间部分),推理路径由意图层引导(图中箭头带有 P)。在此流程中,输入包括案件文件和利益相关方的输入,这些输入被转换为 DIKWP 表示;通过双向语义推理,生成输出决策,并附有贯穿语义图的解释性轨迹。
该流程可以分为以下几个阶段:
阶段 1:内容摄取与图构建
法律内容(如法规、判例、案件事实、证据)被导入并划分为 DIKWP 各层:
· 使用 NLP 技术提取数据与信息层(如命名实体识别用于抓取关键事实、比较指标用于识别案件中的异常之处);
· 借助法律知识库填充知识图(例如将识别出的法规链接到法律概念网络中)。
例如,在我们的案例研究中,此阶段处理行政记录(检查报告、撤销执照引用的法律条文等),生成数据节点(如时间、违规类型)、信息节点(如“6 个月内发生 3 起违规,高于平均水平”)、知识节点(如“若存在 3 项严重违规则可撤销执照”的规定)、智慧节点(如“每年违规次数超 2 即为重大公共健康风险”的指南性原则)与意图节点(如“保护顾客健康”)。
阶段 2:利益相关方输入与图构建
同时,获取利益相关方的视角(如餐厅经营者)。输入可来自证词、上诉书,或是用户认知模型。我们使用类似技术构建 DIKWP(Stakeholder) 图,但更关注主观性:
· 数据节点可能包括“清洁日志”、“个人投入成本”等;
· 信息节点可能是其强调的差异(如“所有违规均为轻微且迅速整改”);
· 知识节点包括其对法律条文的引用(也可能包含误解);
· 智慧节点反映其价值观(如“我始终重视卫生”、“处罚应与危害相称”);
· 意图节点包括“保住营业执照”、“维持生计”及“保障食品安全”(该方也关心声誉与顾客安全)。
阶段 3:初步映射与对齐
执行初始的 与
映射,将两个图中相同或等价的节点进行匹配:
· 比对数据(如当事人确认的违规记录与机关记录是否一致);
· 比对术语(如法规编号是否一致);
· 使用字符串匹配、ontology 对齐或向量嵌入方法识别对应关系;
· 输出初始映射集合 ;
· 标记冲突对 :如当事人图中缺少“3 项违规等于自动撤销”的知识节点,说明存在认知缺失;或内容图中“违规为严重”而当事人认为“违规轻微”——语义冲突显现。
阶段 4:认知对齐与语义推理
该阶段是语义推理的核心,旨在调和两个视角。图 1 中部展示了“认知空间 → 概念空间 → 语义空间”的转化过程,具体包括:
· 认知空间:处理数据与信息,确认其含义,解析冲突数据;
· 概念空间:组织法律概念与规则,分析案例如何契合法律结构;
· 语义空间:整合词义与语境,解决语言模糊性,如“轻微违规”与“三级违规”实际为同一类别但表述不同;
· 每一阶段都在意图驱动下运行:最终意图节点指导解释冲突、选择合理解释路径。
例如,若意图为“公共安全”,则模糊解释倾向于更安全的解读,除非此解释对当事人的正当目标造成无必要伤害,此时可引入“最小可接受满足”。
最终,一部分冲突对将被解决,并记录在 DIKWP 图上,表明如何经由语义推理得到此结论。
阶段 5:语义融合与图更新
推理结束后,融合两个图:
· 若内容图吸纳了当事人提出的某项规则,则将其添加至知识图;
· 若当事人误解被纠正,则在其图中标注该节点为“纠正后的理解”;
· 形成一个共享理解的融合 DIKWP 图;
· 若仍有差异,理想情况下应只留在意图层(如“公共安全”vs“商业生存”),并通过解释揭示这一不可调和的目标张力。
阶段 6:输出决策与解释
最终结果为一项决策(如“维持撤销但附带条件”或“撤销无效,改为罚款”)。由于整个推理过程在语义空间中进行,因此可从 DIKWP 图中生成可溯源的解释路径:
· 从意图节点出发;
· 指出适用的智慧原则;
· 显示具体适用的法律知识节点;
· 追溯到被引用的数据节点。
例如:
“本裁决旨在实现【公共健康保护】(Purpose)。考虑到【比例处罚原则】(Wisdom),在适用【法规 Y】(Knowledge)时,虽然事实显示【6 个月内有 3 次违规】(Information from Data),但所有违规均属轻微且已迅速纠正(进一步信息),因此裁决机关认为罚款足以达成意图,无需撤销执照。”
这条解释路径可在 DIKWP 图中完整追踪,具有高度可解释性。
该流程具有可迭代性。对于复杂案件,可能需要多次循环处理:识别冲突 → 推理 → 再调整。本文的方法论在描述上以单次集成对齐与推理为例即可。
该流程如图 1 所示,可分为如下几个阶段:
1. 内容接收与图构建(Content Ingestion and Graph Construction)将法律内容(如法规、案件事实、证据、既往判例)导入系统并分层解析为 DIKWP(Content) 图的各层:
· 可采用 NLP 方法提取数据与信息层,例如通过命名实体识别(NER)识别关键事实,通过对比分析当前案件与常规情形间的差异来形成信息节点;
· 利用法律知识库构建知识层(如将已识别的法规条文链接至法律概念网络);
· 最终产出 。在我们的案例研究中,此阶段会将行政执法记录(如检查报告、吊销依据等)转换为数据节点(如违规日期、违规类型等)、信息节点(如“6 个月内 3 次违规,超出平均水平”)、知识节点(如“若存在 3 次严重违规,则授权吊销执照”)、智慧节点(如从执法指南中抽取的“若年违规次数 >2,存在公共健康风险”原则)和意图节点(如“保障就餐者健康”)。
2. 利益相关方输入与图构建(Stakeholder Input and Graph Construction)同时获取利益相关方(如餐厅经营者)视角的输入。输入可来自证词、申诉信,也可由用户模型提供。
· 构建 ,采用与内容图类似的技术,但更侧重主观视角;
· 例如,经营者可能提供的数据包括“清洁记录”、“投入金额”等 → 数据节点;
· 强调的信息如“所有违规都很轻微且迅速整改” → 信息节点;
· 所提及的规则或对法律的理解(无论是否正确) → 知识节点;
· 申诉理由中体现的价值观如“清洁优先”、“惩罚应与危害匹配” → 智慧节点;
· 明确目标如“保住执照”、“维持生计”,以及隐含共同意图如“保障食品安全” → 意图节点。
3. 初始映射(Initial Mapping / Alignment)执行初始图间对齐操作:
· 匹配相同或等价项(如检查日期、法规引用等);
· 采用字符串匹配、本体对齐、向量嵌入等方法进行术语配对;
· 输出为初步映射集合 ,并识别冲突集合
。
例如:
· 若利益相关方图缺少“3 次违规导致吊销”这一知识节点 → 知识冲突(认知差异);
· 若一方将违规描述为“严重”,另一方则称“轻微” → 信息冲突。
4. 认知对齐与推理(Cognitive Alignment and Reasoning)此阶段为图 1 中央的“语义推理核心”,将认知空间、概念空间与语义空间依序转换:
· 认知空间:判断事实层级是否成立,解决基本数据差异;
· 概念空间:将具体案情与抽象规则结构对应;
· 语义空间:统一语言/概念差异,解决可能的语义歧义(如“Grade 3 violation” 与 “minor violation” 是否等同);
· 整个推理过程由“意图(Purpose)”驱动,意图层作为权重引导规则应用、解读歧义、处理冲突;
· 冲突对 中部分在此阶段得以解决(如通过语义解释说明“轻微违规”在法律上定义为“严重”或相反)。
5. 语义融合与图更新(Semantic Fusion and Graph Update)在推理基础上,更新图结构以达成共识语义:
· 若引入了利益相关方的规则 → 加入内容图;
· 若利益相关方某认知被驳回 → 将其标注为“解释后未采纳”;
· 最终产生融合图,其中所有未解决的差异应仅停留在意图层(即纯粹目标冲突,可留作权衡)。
6. 输出裁决与可解释路径(Decision Output and Explanation)推理结果转化为裁决或建议,并沿 DIKWP 层级生成可解释路径:
· 从“意图”节点出发 → 经“智慧”→“知识”→“信息”→“数据”,回溯推理链;
· 可生成如:“该裁决旨在实现[公共健康保障](意图),依据[比例执法原则](智慧),在[法规 Y](知识)框架下,考虑到[三项违规行为](信息)...”;
· 此解释路径可直接标注于 DIKWP 图中,确保审理过程具有可追溯性和可解释性。
最后,该转换流程具备迭代性:在复杂案件中,可多轮执行“映射+推理”以达成最终语义对齐。
3.3 算法:双向 DIKWP 映射与语义推理实现
我们现在以伪代码样式概述用于实现上述流程的算法。为清晰起见,伪代码中将穿插文字说明。
算法 1:语义司法映射(DIKWP×DIKWP)
输入:
· 案件的法律文书、证据与事实(文本、数字等);
· 利益相关方的输入(证词、主张、论点);
· 背景本体/知识(法律本体、该领域预定义的 DIKWP 模板(若有))。
输出:
· 裁决结果(例如裁判结论或建议措施);
· 映射与注释:以 DIKWP 语义解释裁决的理由。
步骤 1:构建 DIKWP(Content) 图
a. 解析案件数据:
· 从法律文书中提取原子数据点(事实、数字、日期等),创建数据节点 ;
· 每个数据点依据本体赋予语义标签(如该数据表示什么)。
b. 构建信息节点:
· 识别关键比较或上下文(例如,数值是否超过阈值,与常规情形的差异);
· 为每个此类信息创建信息节点 ,并通过
将其连接至所依赖的数据。
c. 插入知识节点:
· 加载相关法律法规至 ,每个条文作为节点,条件与结论可作为子图结构;
· 将信息节点连接至知识节点:若某法律条件被满足,则链接对应信息节点()。
· 若多个法规可能适用,初步全部纳入。
d. 插入智慧节点:
· 加入领域通用原则或先例(如“比例原则”、“公共利益优先”等) → ;
· 将知识节点连接至智慧节点(),如某规则的应用触发公平原则;
· 亦可加入“最佳实践”作为智慧节点。
e. 插入意图节点:
· 提取法规目标(通常在立法序言或政策声明中)作为意图节点 ;
· 同时可添加“公平结果”等通用意图;
· 将智慧节点链接至意图节点():如公平原则服务于公平裁决意图。
最终形成完整的 。
步骤 2:构建 DIKWP(Stakeholder) 图
a. 解析利益相关方数据:
· 从其陈述中提取数据点(事件、个人事实),加入 ;
· 注意与内容图中相同的数据项(如相同检查日期等)。
b. 构建其信息图:
· 从其叙述中识别强调的比较或差异(如“10 年仅 3 次轻微问题”);
· 创建对应的信息节点 ,并通过
链接其数据节点。
c. 填充其知识图:
· 提取其提及的法规条文、法律术语等作为知识节点 ;
· 若未提及法律,可推测其潜在信念(如“我应先收到警告”);
· 将信息节点链接至知识节点():例如,“3 次轻微违规” → “不应吊销执照”。
d. 加入智慧层:
· 辨识其主张中体现的价值观或原则(如“惩罚过重”、“应有第二次机会”);
· 创建智慧节点 ,连接其知识节点(
)。
e. 加入意图层:
· 明确其目标(如“保住执照”、“维持生计”、“保障食品安全”等);
· 创建意图节点 ,并将智慧节点链接至意图节点(
)。
最终形成完整的 。
步骤 3:初始化映射对齐
· 对 中每个数据节点,查找
中的等价节点 → 映射至
,若无匹配,记为未对齐数据;
· 对信息节点,查找语义相似或冲突的节点 → ;
· 对法律知识节点,若双方图中皆有对应法条 → 映射至 ,否则为缺失或误解;
· 智慧层与意图层亦执行类似映射;
· 结果为: 映射集合,以及冲突对集合
(如信息分类差异、知识缺失等)。
步骤 4:语义对齐迭代(Iterative Semantic Reconciliation)
· 初始化标志 changes = true
· 当 changes == true 时,执行以下操作:
a. 解决数据差异(Resolve Data Discrepancies):对于每一个数据冲突(例如,利益相关方声称 X 未发生,而内容图中记录 X 发生):
· 利用现有证据及可能的证据法则(在知识层)判断采信哪一数据;
· 若利益相关方提供的某项数据可信,而内容图中未包含 → 添加到 ;
· 若某数据仍存争议,可用“不确定性倾向原则”添加智慧节点(例如“在不确定性下有利于当事人”);
· 若有任何添加/删除操作,设 changes = true。
b. 解决信息层分歧(Resolve Information Differences):对于每一个信息冲突(对同一事实的不同描述):
· 判断是定量还是定性差异,例如“轻微 vs 严重”可能取决于法规定义的阈值;
· 使用知识层的定义将术语标准化(如“3 次违规”在法规中定义为严重 → 解释利益相关方的“轻微”为错误分类);
· 若利益相关方揭示了内容图未包含的细节(例如“其中一项仅是标识不清”),则将内容图的信息细化(例如,将“3 次严重违规”细分为“1 次轻微,2 次中度”);
· 若信息节点被细化或重新分类,且关联的知识节点需更新 → 设 changes = true。
c. 对齐法律知识与法规(Align Knowledge and Laws):对于内容图中法律节点而利益相关方未提及或未理解的:
· 通过智慧或意图节点进行解释注释,如加入到利益相关方图中;
· 若利益相关方引入新规则(例如“应该先警告”),确认其合法性:若确有其事(如政策或非正式规定) → 纳入内容图;否则标注为“误解”;
· 若内容图中漏掉该规则 → 补入并适当连接;
· 若存在多条相冲突的法规(如通用法与特别法) → 依据智慧层优先级选择适用条款(例如“特别法优先”);
· 任何新增或删除节点 → changes = true。
d. 平衡智慧原则(Balance Wisdom Principles):收集所有智慧节点,处理冲突原则,例如内容图中“严格执法” vs 利益相关方中的“初犯宽容”:
· 使用意图层节点判断优先级,例如“公共健康”可容忍初犯的宽容;
· 若双方理念有冲突,则可新增高层智慧节点,如“公平与严格的平衡原则”;
· 被选择应用的原则 → 标记为激活;未被采用的 → 标记为“本案不适用”但保留;
· 共享智慧节点(如公平)应显式映射;
· 若新增原则或更新 → changes = true。
e. 统一目标(Unify Purpose):判断双方意图能否协调一致:
· 理想情况:找到满足法律意图和利益相关方合法意图的折中方案;
· 示例:法律意图是“保障公共健康”,利益相关方是“维持营业” → 若通过罚款+培训等非吊销措施可达成,视为双赢;
· 若发现法律中存在裁量权条款(如“可改为罚款”),应添加该知识节点;
· 若意图确实不可调和(如法律要求强制处罚,而利益相关方期望免罚),应明确记录该冲突,并以意图图中的公共利益为主;
· 若能形成“折中目标”节点(如“保障健康同时维护营业”) → 添加;
· 若新增节点 → changes = true。
· 重复以上循环,直到 changes = false,即语义图对齐完成,图结构不再变动。
5. 裁决合成(Decision Synthesis)
此时,内容图 已更新,涵盖所有相关考量,冲突集
应已被解决或至少明确为必要权衡。
裁决的生成基于知识层(K)和意图层(P):
· 确定哪个法律裁决节点被激活。在内容图的知识图中,可能存在多个候选节点,如“吊销营业执照”、“罚款”、“不予处罚”等;
· 判断哪些裁决条件被满足;
· 若多个裁决都满足条件,则使用智慧层(W)与意图层(P)指导选择:
o 例如,若“吊销”与“罚款”均可行,则智慧原则“比例处罚”与意图“保障公共健康”vs“维持社会经营”可指向选择“罚款”;
· 因此,最终选择最符合整体意图层节点的裁决;
· 被选中的裁决节点即为输出;
· 为记录过程,在图中标记所选节点,并标注它所服务的意图节点(例如,哪个意图被满足)。
6. 解释生成(Explanation Generation)
通过遍历融合后的 DIKWP 图生成完整解释路径:
· 从意图(Purpose)层出发: 列出该决策意图服务的意图(如“保障公共健康”、“实现公平处理”);
· 对应智慧(Wisdom)层: 列出在本案中应用的原则(如“比例执法”、“第二次机会”、“程序正义”);
· 关联知识(Knowledge)层:
o 说明哪些法律条文、政策或规则被应用(例如,“适用《条例》第 X 条”);
o 哪些未被应用但曾被考虑(如“考虑了内部宽容政策但因不符条件未采纳”);
· 追溯信息与数据(Information & Data)层:
o 哪些事实支撑了上述知识节点;
o 哪些背景信息构成适用条件(例如,“六个月内三次违规,依照条例定义为严重违规”,同时“均为轻微违规且快速整改” → 支持采用智慧原则“比例惩罚”);
· 编译解释路径为自然语言说明:
o 示例:“本决定选择 [结果],以实现 [保障公共健康](意图)。在裁决过程中,裁判者采纳了 [比例执法] 原则(智慧),据此参考了《某条例》第 X 条(知识),该条例适用于 [六个月内三次违规] 的情形(信息,来自检查报告数据)。然而,考虑到所有违规均为轻微且迅速整改(进一步信息),依据比例原则及申诉人提出的情况,决定改用 [罚款] 代替吊销执照(意图层对齐)。”
· 此解释路径可视作一次从 Data 层到 Purpose 层的图遍历,具有天然可解释性。
该算法框架确保案件的每一元素都有其在语义模型中的位置,并将当事方的观点纳入正式推理过程中,而非仅作附注。在实际实现中,部分操作(如节点匹配)可结合 NLP 和 AI 技术完成(如相似度判定、知识库查询);而冲突解决则可能依赖预定义逻辑或人机协同输入。但无论实现形式如何,所得结果始终是语义丰富且具有可追溯路径的裁决。
4. 案例研究:行政法情境
为了验证所提出的框架,我们在行政法背景下呈现一个详细案例研究。我们所选取的情境涉及一种常见类型的争议:监管机构与受监管实体(或个人)之间因违反规定而引发的执照吊销纠纷。该情境足以涵盖我们 DIKWP 语义推理的所有要素——事实、规则、原则与意图——同时也贴近现实(类似的争议常见于食品卫生检查、环境许可、职业执照等领域)。为具体起见,我们将其置于公共卫生监管领域:某市卫生部门吊销一家餐厅的食品服务执照,而餐厅老板提出上诉。
情境描述:
市卫生部门在过去一年中对家庭经营餐厅“GoodFood Bistro”进行了多次检查。在最近的一次检查中,发现三项违规行为:一是食品温度控制不当;二是设备清洁不达标;三是记录保存不完整。基于此,部门于12月5日发出吊销执照通知,援引条例5.4,内容为:“对于存在严重或重复违规的经营单位,可予以暂停或吊销执照。” 餐厅老板 Alice 认为处罚过于严厉:违规事项均属轻微,无人因此生病,且所有问题在检查后立即整改。她认为通常情况下,初次或轻微违规只会收到警告或罚款,而非被勒令停业。于是她向行政法官提出上诉。
本案例涵盖:
· 数据(Data):检查报告、违规的数量与类型、历史合规记录;
· 信息(Information):一年内三次违规是否异常?这些是否构成“严重”或“重复”;
· 知识(Knowledge):条例5.4条文;市政执法指南;过往案例(如有);
· 智慧(Wisdom):如公共卫生保护、小企业公平对待、执法中震慑与教育的平衡;
· 意图(Purpose):卫生法规的意图(防止食源性疾病)、企业的意图(安全盈利经营),以及司法裁决的意图(达致公平结果)。
接下来我们将逐步将该情境应用于所提出的方法学。
4.1 案件的 DIKWP(内容图)构建
数据层(内容):我们从卫生部门的行政记录中提取以下关键数据:
· D1:“过去12个月内对 GoodFood Bistro 进行了3次检查”(检查时间:1月10日、6月5日、12月1日);
· D2:“12月1日检查发现3项违规”:违规A:热汤温度50°C(低于60°C要求);违规B:切片机未完全消毒;违规C:部分记录不完整;
· D3:“之前的检查也有违规”:如1月10日有2项轻微违规,6月5日有1项中等违规;
· D4:“12月5日发布吊销通知,引用条例5.4”;
· D5:条例5.4的原文(或相关摘要);
· D6:相关政策指引(如有):例如某卫生部门指导文件载明:“第一次轻微违规 = 警告,重复严重违规 = 暂停/吊销”;
· D7:(若可获取)类似案件的处理结果(如去年另有5家餐厅因重复违规被吊销执照);
· D8:“过去一年 GoodFood Bistro 未出现任何食品中毒报告”;
· D9:“GoodFood Bistro 的老板在每次检查后两日内提交整改证明”。
上述每一条为一个节点,可构成 中的数据子图
的节点集合
。如:
·
边 可连接如“违规详情”至“检查日期”的关联。
信息层(内容):由数据推导的关键信息包括:
· I1:“最近一次检查中发现三项违规”;
· I2:“连续三次检查均有违规”;
· I3:“过去一年共计6项违规,违规率100%”;
· I4:“12月1日三项违规均被归类为‘严重’”(由检查员或法规定义);
· I5:“所有违规在检查后立即整改”(由D9得出);
· I6:“无实际危害事件发生”(由D8);
· I7:“政策表明:重复严重违规可吊销执照”(由D6得出);
· I8:“政策建议:初次轻微违规应给予警告”;
· I9:“餐厅有5年经营历史”(如可从背景中提取,未明示可略过)。
这些信息通过映射函数 从数据推导而来,如:
·
· ,
·
知识层(内容):关键法律知识包括:
· K1:条例5.4:“若存在严重或重复违规,监管机构可吊销执照”;
· K2:“严重违规”的定义(如温度问题构成健康风险);
· K3:“重复违规”的定义(如连续三次检查有违规即为重复);
· K4:执法政策指引(如D6):“第一次轻微违规应警告,重复严重则吊销”;
· K5:行政执法裁量权原则;
· K6:被许可人有上诉权(程序性规则);
· K7:相关先例(若有);
· K8:“吊销执照”作为法律行为或后果节点。
将信息节点与知识节点连接,如:
· ,
· ,
· ,
· ,
· 等。
智慧层(内容):涉及以下原则:
· W1:“保护公共健康”;
· W2:“执法应确保合规”;
· W3:“比例性原则”;
· W4:“一致性与震慑效应”;
· W5:(如有)“在保障安全的前提下支持本地经济”;
· W6:“正当程序与公平”。
意图层(内容):明确法规背后的动机:
· P1:“防止食源性疾病、保护公共健康”;
· P2:“确保餐饮场所卫生”;
· P3:“维护法律秩序与合规性”;
· P4:“实现程序公正与治理有序”。
4.2 DIKWP(Stakeholder)图谱构建(餐厅老板 Alice 的视角)
接下来我们构建餐厅老板 Alice 的语义视角。
数据层(Stakeholder):
Alice 所拥有的数据中既包含与监管方相重叠的内容,也有其独有的陈述:
· D1′:与 D1 对应,她知晓自己过去一年经历了3次检查,但可能表述为“我经常接受检查”等。
· D2′:她承认 12 月 1 日的检查存在问题(即便她不承认全部,但由于她在检查后整改了问题,说明她至少知道问题存在)。
· 她可能补充数据:“所有违规当场已整改”——在监管方视为信息(I5),但对她来说是她亲自完成的事实(数据)。
· D9′:她可能提交证据,例如整改后购买温度计的发票、清洁日志等。
· 她还可能提供如下附加数据:“从未有顾客投诉或中毒事件发生”(尽管监管方也有此数据)。
· 个人陈述:“我经营这家餐厅已有5年”,“这里是我的全部生计,有10名员工”。
· “此前检查记录良好,直到今年才有问题”。
因此, 包含许多与监管方重合的数据,也包括经营影响等额外信息。
信息层(Stakeholder):
Alice 可能强调以下信息:
· I1′:“违规事项很轻微”——她可能认为这些问题不构成直接危险;
· I2′:“所有问题我都立即整改”;
· I3′:“并无实际危害(无人中毒)”;
· I4′:“我在不断改进操作流程”;
· I5′:“过去记录良好(之前几年无违规)”;
· I6′:“此次处罚(吊销)与违规严重程度不符,过于严厉”;
· I7′:“其他餐厅面对类似问题通常只是罚款”;
· I8′:“我没有收到任何正式警告”——她期望的是渐进式执法。
这些信息从她的数据中派生:
· D9′ → I2′, I3′;
· D2′(如“汤温稍低”“现场已加热”等) → I1′;
· 影响数据(如员工数、经营年限) → I6′;
· I7′ 可能来自她对其他案例的了解;
· I8′ 来源于她未接收正式通知的经验。
知识层(Stakeholder):
Alice 所理解或相信的法律知识包括:
· K1′:她或许不清楚具体法规编号,但知道“健康规范违规”这一概念;
· K2′:她相信“只要问题已纠正且不严重,通常不会吊销执照”;
· K3′:她可能认为法律规定“只有在存在迫在眉睫的健康风险时才会被立即关停”;
· K4′:她知道自己有上诉权;
· K5′:她或许提到“小企业保护”或疫情后政策宽松的指引;
· K6′:她对每项违规的事实认知;
· K7′:她可能曾咨询专业人士并被建议援引某些判例或标准。
这些知识节点中,K2′ 与内容知识图中的政策指南 K4 高度对齐。K3′(如果存在于法规中)也可能与内容图中尚未显式建模的法规相对应。若该规则并不存在,则为认知偏差。
智慧层(Stakeholder):
她的价值观与主张包括:
· W1′:“公平原则”——她认为此判决不公;
· W2′:“应给予第二次机会”;
· W3′:“我一直重视食品安全”;
· W4′:“员工与社区将因此受到连带伤害”;
· W5′:“我觉得自己被区别对待、受到了过度处罚”。
其中:
· W1′ 与内容图的 W3(比例原则)和 W6(程序公正)对齐;
· W2′ 与“第二次机会”理念呼应,也可归入比例原则;
· W3′(对食品安全的投入)与 W1(公共健康)目标一致,表达她并非蓄意违规;
· W4′ 作为道义性观点虽未在法规中体现,但可能在裁量中考虑;
· W5′ 反映了她对执法一致性的质疑,可与 W4(震慑/一致性)形成间接对照。
意图层(Stakeholder):
她的目标包括:
· P1′:“保持餐厅运营(保住执照)”;
· P2′:“维持生计,保障员工工作”;
· P3′:“为社区提供安全的食物”;
· P4′:“被公平、公正地对待”;
· P5′:“避免由于停业而产生的连锁影响”。
其中:
· P3′ 与内容图的 P1(公共健康)完全一致;
· P1′ 与监管方的近期执法目标相冲突,但可探讨替代性合规手段;
· P2′ 和 P5′ 并非法规明确追求的目标,但可能在司法裁量中被考虑;
· P4′ 与内容图的 P4(程序公正)一致。
4.3 双向映射与语义整合
我们现在对内容图(DIKWP(Content))与利益相关方图(DIKWP(Stakeholder))进行对齐,并分析其异同。
数据层对齐:
· 检查事实:Alice 承认最近一次检查存在3项违规行为(因此内容图中的 D2 与她的 D2′ 对齐,尽管她对违规定性可能不同意)。
· 此前违规历史:内容图记录了1月和6月的违规,Alice 表述自己“以前记录良好”,但并未否认这些问题。我们假设她承认这些,只是认为它们不严重。因此违规次数上是对齐的,只是在严重程度上有分歧。
· 无食物中毒记录:双方均认同,无人患病。
· 整改行为:内容图并未明确列出这一点,但从上下文可推知;Alice 明确陈述了此点,二者可视为一致。
· 法规文本:内容图有明确引用,Alice 未必读过原文,但她的知识节点(如 K2′)隐含了对该规则的理解。
· 经营影响数据:Alice 提供了员工数、生计等影响数据,内容图中未涵盖(监管方视为与法律意图无关)。这部分将保留为 Stakeholder 专有数据节点。
信息层对齐与冲突:
· “违规严重” vs “违规轻微”:存在直接冲突。内容图中信息节点 I4 称为“严重违规”,Stakeholder 图中 I1′ 称其为“轻微问题”。为解决该冲突需参照法规对“严重”定义。如果法规认定如“汤温未达标”为“严重”或“关键”违规,则内容方可能更有依据。
· “重复违规” vs “一次性问题”:内容图视为“重复”(I2/I3),Alice 强调问题不同、轻微,认为“不构成重复”。双方对“重复”的理解不同:内容方理解为“任何连续违规”,Alice 理解为“同一问题多次出现”。
· “处罚是否过重”:Stakeholder 信息节点 I6′ 明确表示“处罚过重”,内容图无类似节点表扬处罚,而是基于法规逻辑推导。这是一个价值判断问题,后续在智慧层进一步讨论。
· “他人通常仅被罚款”:若属实而内容方未考虑,将构成一致性冲突;若不属实或个案严重程度不同,则内容方可能有正当理由差异化处理。
· “未被警告”:内容方未提及警告,可能直接在第三次检查后吊销执照。若政策(K4)表明应先警告,而机构未正式发出书面警告,则可视为程序冲突。
知识层对齐与冲突:
· 法规 5.4(K1 vs K1′):Alice 并不否认其存在,而是质疑其适用范围。她可能不争议“严重或重复”可撤销执照,但认为自身情形并未达到该标准。这一争议取决于对违规分类与“重复”的解释。
· 政策指南(K4 vs K2′):高度一致。她认为应先收到警告,与内容图中的政策内容吻合。
· 但冲突在于:监管方可能认为违规已属严重,或认为此前两次已构成充分警示(即使未发书面警告)。
· 裁量权(K5):Alice 虽未明确提出,但其主张隐含“应更灵活处理”。
· 若她提出某些法律(如需“立即危害”才关停),需验证其是否存在或是否为误解。
智慧层对齐与冲突:
· 公平/比例原则(W3 与 W1′):理念上对齐。双方都认可“处罚应当匹配违规程度”。冲突在于各自如何分类违规。
· 公共安全(W1 与 W3′):正面对齐。她强调自己也关注安全,有助于达成折中方案。
· 严格执法 vs 宽容处理(W4 与 W2′):存在冲突。监管机构强调震慑力,她强调给予机会。
· 经济困难(W4′):内容图未涉及此值;但裁判者可能在裁量中考虑此类“外部公平”原则。
· 程序公正(W6 与 P4′):双方一致。
意图层对齐与冲突:
· P1(公共健康)与 P3′(提供安全食物):对齐;
· P3(合规)与 P1′(保持营业):存在张力,但可协商(例如通过加强监管替代吊销);
· P4(公正程序)与 P4′(被公平对待):一致;
· P2′(生计)与内容图中无对应目标:属于外部利益,但在司法裁量中可作为公平考虑因素。
小结:
这一场景中,许多语义冲突通过法规解释、价值平衡和裁量规则可被调和。一个可能的解决方案是在不牺牲公共健康的前提下,通过更温和的惩罚实现合规目标,例如:
“撤销原吊销决定,改为处以罚款和短期停业,要求接受培训,并在未来6个月接受月度检查,如有严重违规立即吊销且不得申诉。”
这个方案在保留执法威慑的同时,给予经营者改正机会,也避免了不必要的生计损害。
推理模拟与裁决结果:
· 数据冲突:基本不存在。大部分事实双方一致,仅在解释上存在差异。
· 信息冲突:通过参考法规定义得以澄清。假设法规规定“关键违规”为可能造成直接健康危害的问题(如汤温过低)。如设备卫生问题为中等、记录缺失为轻微,则:
o 裁判者可判断:本次检查中存在至少一项关键违规(汤温),因此该次整体可被标为“严重”;
o Alice称问题“轻微”是从“无造成伤害”和“即时整改”的角度出发,是主观解释;
o 裁判者可能认可法规分类(即确为严重),但同时承认其已快速整改,从而减轻后果。
· 知识推理:
o 法规5.4的触发条件成立:连续3次检查出现问题;
o 但政策指南(K4)建议逐步执法。机构是否跳过了“警告”阶段?若此前未正式发出书面警告,此点可对Alice有利;
o 若有先前报告中存在口头提示,也可能视为“非正式警告”;
o 裁判者需判断机构是否在裁量中合情合理;
o 如果Alice展现出改进意愿和合作态度,比例原则(W3)将倾向于给予机会。
· 智慧冲突调和:
o 公共健康 vs 公平性:需要同时满足。若整改到位,且风险较低,可通过温和措施保障健康;
o 严格 vs 宽容:若无实际伤害、整改及时,可适度宽容;
o 威慑力维持:通过罚款、培训和未来检查,仍可传达执法力度;
o 生计考虑:虽然法律未明文要求考虑,但在行政裁决中可作为衡量“比例性”的一部分。
· 意图对齐:
o 可选择的最优解是:在实现公共健康保护(P1)的同时,最大限度保留Stakeholder的正当目标(P1′ 维持营业);
o 实施方式如:撤销吊销决定,改为罚款、暂时停业、培训和加强监管。
假设判决结果:
管理法官裁定撤销吊销命令,恢复餐厅许可证,设置6个月试用期,期间每月检查,若发生严重违规则立即吊销且不予申诉。并处以罚款,要求业主参加食品安全培训课程。
此结果兼顾了法律意图(保障公共健康、强化合规)与当事人意图(维护生计、公平对待),实现了“语义正义”。
DIKWP 语义图解释路径:
· 意图(Purpose):裁判者决策出于两个目标:保护公共健康(P1)与保障公平执法(P4);
· 智慧(Wisdom):采纳了比例执法原则(W3),在严格执法(W4)与给予机会(Stakeholder 的 W2′)之间寻求平衡;
· 知识(Knowledge):
o 法规5.4确实赋予机构“可能撤销”的权力;
o 但政策指南(K4)强调按违规严重性进行阶梯式处罚;
o 案例中虽然有“严重违规”(温度问题),但已迅速整改,且无实际伤害;
o 故裁判者认为:虽然具备撤销依据,但从“法规之精神”出发,更轻措施亦可达成意图。
· 信息(Information):
o 所有违规已现场整改,无人患病;
o 没有历史性高风险行为,未曾收过正式警告;
o 即,风险实际程度较低,可视为“可控”;
· 数据(Data):
o 来自检查报告、整改凭证、经营历史;
o 双方对关键数据无实质争议,仅对意义有所不同解释。
总结:
该裁决体现了“语义正义”(Semantic Justice)理念:不是机械执行法规,而是通过对语义各层级的分析和协调,得出兼顾法律意图与个人处境的解决方案。
通过DIKWP的五层结构,裁判者:
· 识别了事实(Data);
· 理解了信息在语境中的意义(Information);
· 结合了法律规定与政策(Knowledge);
· 应用了比例、公平等价值原则(Wisdom);
· 并在满足公共健康前提下,尽可能满足Stakeholder的正当目标(Purpose)。
最终,Alice 可以理解裁决理由:
“您的许可证得以保留,是因为我们相信您能安全经营,并注意到您已及时整改;但考虑到违规频次,我们需要通过附加措施确保公共健康安全。”
这样的解释,不仅让裁决具有合理性,也体现出理解与尊重,有助于当事人信服和执行,达成共赢。
5. 评估
我们从两个主要维度对基于 DIKWP 的语义司法推理框架进行评估:其一是概念完整性(即该模型相较于传统模型能在多大程度上捕捉并整合法律推理的关键要素),其二是可解释性与公平性的体现(即该方法所宣称的优势)。由于本研究仍处于设计与原型阶段(我们尚未构建能够对大量案件进行统计性评估的全自动系统),因此本章的评估以分析性和定性为主。然而,我们借助 AI & Law 领域的既有评估标准,并结合前述案例研究的具体表现,来验证该方法的有效性与优越性。
5.1 概念覆盖与严谨性
评估一个法律推理模型的一个方式,是检验它能否表达出人类专家在裁判案件时所需的全部知识与推理路径。我们的 DIKWP 模型通过引入在其他模型中常常隐含的“智慧(Wisdom)”与“意图(Purpose)”两层,刻意扩展了语义表示的覆盖范围。例如,在案例研究中,一个传统的基于规则的方法可能仅止步于如下推理:“第五章第四条适用,条件满足,因此吊销许可。”此类方法并不表示比例原则或行政机关拥有自由裁量的观念。而我们的模型则将这些视为“知识节点”与“智慧节点”,从而为替代性裁决结果的出现提供了结构化表达。从概念上看,这体现了推理链条的完整性:DIKWP(法律内容)图谱不仅涵盖了规范本身,也包括指导性规则、自由裁量权等“元规则”,以及与之相关的法律原则;而 DIKWP(利益相关方)图谱则捕捉了上诉人观点,包括某些虽非严格意义上的法律论点(如经济困难),但却可能影响法官公平裁量的要素。通过双向映射机制,模型避免了对这些因素的忽视。
我们还可将该模型映射到已有的法律本体论框架中以评估其概念严谨性。例如,Van Kralingen 的 Frame-based 法律本体将法律规范划分为“行为(Act)”、“主体(Agent)”、“条件(Condition)”、“结果(Outcome)”与“意图(Purpose)”等基本范畴。我们的知识层表达了 Act/Condition/Outcome 的结构,而意图层则与其“Purpose”概念对应。许多传统模型未包含“意图”,而我们在模型中明确建模并将其用于推理。这种与现有法律理论的对齐表明,DIKWP 模型并未引入陌生概念,而是以更为系统的方式组织了已有要素。
另一重要标准是逻辑一致性:DIKWP 模型是否避免了推理矛盾并能产生合法有效的裁决结论?我们的框架以法律规定本身为知识节点,天然地继承了法律领域的逻辑约束。在案例研究中,裁决结果没有违反任何法律,而是在法定自由裁量范围内完成的。DIKWP 方法通过整合多重规则与原则,有效识别出多种可能结论,并据此选择最适合的裁决路径。更重要的是,若模型在推理过程中遇到不可调和的法律冲突,它可以通过 Δ 集合(冲突对)标记并提示。在我们的案例中,看似存在的冲突(例如政策指引与法律规定的张力)通过在“智慧层”中建模为“原则间的权衡”而得以解决,避免了将其误判为规则冲突,从而保持了推理的一致性。
该框架的形式化结构还支持“可追踪的推理路径”。我们可以构建一条“语义证成链”:
· 数据节点提供证据,
· 形成信息节点(事实发现),
· 激活知识节点(适用法律规则),
· 在智慧节点(法律原则)指导下推导结论(如裁决节点),
· 最终由意图节点(目标实现)进行价值背书。
这类似于形式逻辑中的“证明树”,但每一步都带有语义注解。在案例研究中,我们实质上已演示了这样的路径。这种可追踪性是方法严谨性的强有力体现:每个推理步骤都可被分析与检视。例如:“由于未发生食品安全事故(数据)且违规项已及时纠正(信息),在‘比例原则’(智慧)指导下,可推知吊销许可证并非唯一必要手段(知识/裁量结论)。”这样的推理链条可以被人类或系统验证,正符合法律推理对解释性的要求。
在覆盖维度上,我们的模型涵盖了:
· 实体法(通过对规范的建模);
· 事实与证据(数据与信息层);
· 程序性与裁量性内容(指导性规则与裁量权作为知识/智慧);
· 规范性目标(通过意图层表达立法/执法宗旨)。
因此,该模型从知识层面与个案语义层面都实现了广泛覆盖。而许多 AI 与法律模型往往仅涉及前两者,对后两者缺乏表达能力。DIKWP 模型的语义覆盖能力有助于降低“遗漏变量偏差”——即避免因为模型忽略重要因素而做出片面判断,因为所有重要考虑因素都可以在“智慧”与“意图”层中显式建模。
5.2 可解释性
我们通过两个维度评估模型的可解释性:一是模型所生成解释的清晰度与完整性;二是这些解释在用户(包括法官、律师或当事人)心中的接受程度。在案例研究中,我们给出的解释内容丰富,能够无缝地引用动机(意图)、原则(智慧)、规则(知识)与事实(信息与数据)。这种解释的丰富性直接来源于模型本身对各语义层级的显式建模。相较而言,纯粹基于规则的模型可能只会产生如下结论:“尽管第 5.4 条允许吊销许可证,但听证官决定酌情适用较轻的处罚,因此恢复许可证。”虽然这在形式上是正确的,但这样的解释过于简略,引发更多疑问(例如“为何要如此行使裁量权?”)。
而我们的模型能够进一步说明这些问题,指明其背后的“意图”(如:没有造成伤害、合规可达成)、“原则”(如:公平、比例惩罚),并与利益相关方的视角对齐(例如:“业主积极整改,这是我们鼓励的行为”)。这种解释方式与 Bex 等人在法律 AI 研究中所称的“论证式解释(argumentative explanations)”高度一致——不仅阐明结论,还表明支撑与反对理由的权衡过程。DIKWP 模型天然具备论证式结构:每一个智慧节点(原则)都可视为一个论证因子,每一个意图节点则代表该论证所服务的价值或政策目标。
此外,我们的方法支持反事实推理(counterfactual reasoning)能力的解释输出:由于模型明知存在多个选项(例如既表示了吊销也表示了罚款作为可能结果;既建模了严格原则也建模了宽容原则),因此它可以解释“为何没有选择另一种结果”。例如,系统可以给出如下解释:“我们没有简单维持吊销决定,是因为尽管此举有助于公共健康,但考虑到业主立即整改且未造成危害,该决定将显得不成比例;反过来,我们也没有完全免除处罚,是因为仍需对合规性发出警示,以保障公共健康。”这样的解释具有公平性,因为它展示了决策并非武断,而是在多个可能路径中加以权衡。
传统 AI 系统除非专门为此编程,否则往往难以提供此类反事实解释。而我们的语义模型中,这些选项本身就存在于图中,因此只需沿着“未选择之路径”遍历相关节点(例如,图中的吊销许可节点),便能说明为何没有选择该路径(例如引用比例原则等)。
以用户为中心的评估:我们还可以从当事人 Alice 的角度评估该解释是否令人满意:
· 理解性:她能够听到法官认同了她的努力与处境(模型在解释中嵌入了她的视角),并明确指出她需要遵守的内容及其原因(嵌入了法律视角)。心理学对可解释 AI(如 Derek Leben,2023)的研究指出,人们更容易接受将决策与公平性证据挂钩的解释,而我们的解释中正是如此:我们提供的理由与公平原则和公共利益直接相关,而不仅仅是规则的引用。
· 透明性:影响决策的所有因素都是可见的:包括规则、政策、整改记录等。如果某一要素被误解或存在争议,它都可以被质疑。例如,如果卫生部门不满裁决并上诉,他们可以准确看到法官的推理依据是政策解释与公平原则;他们也可以围绕这些点进行反驳(例如“法官对经济困难因素赋予了过高权重,而该因素在法规中并无法定效力”)——至少争议点是清晰明确的。
· 完整性:没有明显的案件要素被遗漏。许多当事人对判决感到沮丧,是因为其观点未被回应。我们的模型通过双向语义映射机制,确保所有主要观点要么被吸收,要么被显式回应。在本案例中,业主提出的要点(我们已整改、其他商家通常只被警告、处罚过重)均在最终解释中得到了回应。这种全面性提升了司法解释的质量。
因此,从定性角度看,该模型生成的解释明显优于传统基线模型。为了进一步支持此结论,可以想象一个比较情境:如果让一位中立的法律专家分别阅读传统模型下的裁判说明与本模型的语义化裁判说明,哪一种更具说服力、更令人接受?我们的解释方式更有可能获得高评价,因为它几乎重现了优秀法官在撰写判决书时的逻辑:论证事实、解释法律、阐述原则、点明政策目标,并最终达成结论。不同之处在于,我们的模型确保上述内容都被建模而不会被遗漏,这正是传统模型难以做到的。
5.3 公平性影响
司法决策中的公平性可从多个维度进行考察:程序性公平(procedural fairness),即程序是否透明、是否充分考虑了当事人的主张;以及实质性公平(substantive fairness),即最终裁决是否适当地平衡了各方利益并符合法律标准。我们的框架在这两个方面均有显著贡献。
程序性公平:通过将利益相关方的视角整合进推理模型中(即 DIKWP(Stakeholder) 图谱),我们确保了当事人在 AI 推理过程中“被听见”。在案例研究中,这种体现具体表现在对 Alice 的陈述的语义映射。如果该系统在 AI 法官或辅助决策系统中运行,它会主动发问:“当事人提出了 X,这一主张在我们的内容模型中是否有道理?”——这在我们处理“她是否应获得警告”这一问题上得到了体现(她未明确引用政策编号,但她的观点促使系统查证相关政策,而事实证明政策确实存在于内容知识层中)。
这与一次公平听证极为相似——法官系统性地回应了所有主张。在传统自动化系统中,一个已知风险是:若当事人的观点未被结构化编码,系统可能忽视其陈述。我们的框架在设计上避免了这种情况:它在所有语义层级上都要求进行对齐检查。如果当事人提出了新的因素,它将作为一个未匹配节点出现在语义图中;映射算法会对此发出提醒,迫使系统要么将其纳入模型,要么给出排除理由。这种对每个输入的系统性处理大大提升了程序性正义。
此外,我们的模型推理过程高度透明(见上一节关于可解释性的讨论),使得当事人能够检查该过程是否公正——例如,如果某个原则本身具有偏见特征,它将在智慧层中被显式呈现出来,便于质疑。这种结构性透明,是实现程序性公正的关键。
实质性公平:我们的案例结果比起僵化地套用规则更为公平,因为它实现了合规目标却避免了过度惩罚。我们的框架之所以能促成这一公平结果,是因为它允许“意图(Purpose)”与“智慧(Wisdom)”层的内容调整规则的适用方式。例如,我们可以通过在一系列假设案例上比较系统输出,评估是否确实达到了更高的公平性水平:
· 如果严格适用规则将导致明显不公(例如,因轻微过失而面临极端处罚),我们的系统更可能通过“意图导向推理(purpose-driven reasoning)”进行缓和——因为它能检测到“结果–意图”之间的不匹配。
· 相反,如果宽容会损害法律意图(例如当事人要求免除一切处罚,而存在严重风险),系统会识别出当事人意图与法律意图之间的不可调和冲突,从而选择从严处理——但关键在于,它会加以解释,这种解释本身就是公正的一部分(即便结论不利于当事人,也确保了其观点被完整理解并回应)。
这一模式表明,我们的方法能更好地实现“衡平法(equity)”所追求的公平性——即关注具体情境与个别情况——同时仍然维护法治一致性,因为整个推理过程始终锚定于普遍性的法律意图与原则。
衡量公平性的另一种方式是“一致性”:相似案件应有相似裁决,除非存在实质性差异可加以正当解释。我们的语义模型恰好有助于识别这些“实质性差异”——它们在图中以不同的信息节点或智慧节点显现。例如,假如另一家餐厅有完全相同的违规记录,但在其案件中确有顾客患病,我们的模型中将出现一个“发生食源性疾病”的数据节点,并生成与其相关的信息节点,该节点将激活“风险已实现”的智慧原则,从而推动更严厉的裁决(如吊销营业执照)。这一差异在语义模型中清晰体现,合理解释了为何该案结果(吊销)与 Alice 的案子(缓期)不同。而传统模型可能无法清晰表达这种差异,因为它们很可能在两案中均输出“3 次违规 → 吊销”,忽略了关键语义差异。因此,我们的框架有望减少不公正差异,使得裁决在逻辑一致与情境敏感之间取得平衡。
另一个公平性层面是偏差控制(bias mitigation)。自动决策系统中的偏见往往来自于不恰当的因素(如对不同背景当事人的差异性对待)。在 DIKWP 模型中,我们更容易通过监控“意图(P)”与“智慧(W)”层级来施加公平性约束。如果“正义”与“平等对待”明确存在于智慧层,那么任何与之不一致的要素在语义映射中将难以找到正当的对齐点,并可能被系统标记为异常。例如,如果系统在多个案件中持续对某一群体给出更严厉的处罚,就可以通过分析其语义图,查找造成这种结果的节点。若这些节点在 DIKWP 中找不到正当支持(例如既不对应法律规则,也不服务任何合法目标),那么它们就是偏见来源——模型因此可以认定该决策未对齐“意图”,从而在逻辑上判定其不正当。
虽然这种能力尚处于理论探索阶段,但它揭示了模型结构所提供的审查潜力:任何决策若无法通过“意图”与“原则”加以合理解释,就可被视为不公。因此,我们的模型为高层次的公平性控制提供了可能机制。
5.5 限制与不足
任何评估都不应回避局限性问题。我们的方法同样存在一些值得注意的挑战:
转载本文请联系原作者获取授权,同时请注明本文来自段玉聪科学网博客。
链接地址:https://wap.sciencenet.cn/blog-3429562-1490000.html?mobile=1
收藏