|
面向自动驾驶的标准化机制演进研究:从专家定义到DIKWP语义空间驱动
(1. 海南大学 计算机科学与技术学院,海南 海口 570228;)
摘 要:自动驾驶技术的发展对传统的专家主导标准化模式提出了严峻挑战,传统标准制定过程存在主观性强、更新周期长、适应性不足的问题。为此,本文提出了基于数据-信息-知识-智慧-意图(DIKWP)网状语义空间的新型标准化机制,以自动驾驶为应用背景,系统阐述了标准化模式从专家人工定义向机器自主语义驱动的演进路径。文章分析了传统标准化机制的局限性,介绍了DIKWP模型的理论基础与优势,指出DIKWP模型通过语义空间的客观化与动态化,使标准实现了从主观定义到数据驱动推理的转变。结合自动驾驶领域的障碍物识别和跟车距离两个典型案例,详细说明了标准语义如何由人工定义转向AI自主推导生成的具体过程,并提出了以AI为核心的标准生命周期管理机制。此外,论文还对未来智能标准化的基础设施建设、组织架构调整、法律法规完善和政策引导等方面提出了建议和展望,指出这种新型标准化机制不仅提升了自动驾驶系统的适应性和安全性,还推动了标准体系本身向更灵活、更客观的方向发展。
关键词:自动驾驶;标准化机制;DIKWP模型;语义空间;动态适配;人工智能;
中图分类号:TP18 文献标志码:A
一、引言
当代智能交通技术的高速发展,正倒逼传统标准制定模式的变革。过去,行业标准主要依靠专家委员会以人为主导的方式制定:由人类专家预先下定义概念、编撰技术标准条文,再由企业与工程师人工执行并遵循这些固定标准。然而,在自动驾驶为代表的高度复杂、智能化系统中,这种传统标准化机制日益表现出滞后与无力[1]。自动驾驶车辆需要应对海量场景与瞬息万变的环境,人工预先定义的规则和概念往往难以及时涵盖所有情况,导致标准的适应性衰减[2]。中国作为智慧交通领域的引领者之一,官方也在积极推动自动驾驶与车路协同标准体系架构研究[3],加快制定关键标准以支撑产业。但如何让标准在复杂环境中保持动态适应性和客观有效性,成为亟待探索的问题。
为了解决这一挑战,学界提出了基于DIKWP语义空间的新一代标准化模式。DIKWP是指数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)和意图(Purpose)五层次认知模型,它通过在传统DIKW模型基础上引入“意图/目的”层,并构建网状语义交互结构[4],使AI系统能够在认知过程中实现各层语义的双向反馈和迭代[5]。这一模型为标准的制定与适配提供了全新的思路:由语义空间驱动机器自动生成和调整标准。本文旨在系统探讨中国智慧交通领域自动驾驶子系统中,标准化过程如何从传统专家主导的“人工概念定义-人工执行标准”模式,演进到基于网状DIKWP模型的“语义空间驱动-机器生成与适配标准”模式,并分析其中的机理与实现路径。
文章首先剖析传统标准化机制下由人类专家定义概念的主观性及其局限,并阐明这种模式在高度智能化复杂系统下的适应性为何会逐渐衰减。接着,引入DIKWP语义空间理论,说明该理论如何打通数据、信息、知识、智慧与意图之间的语义映射,为自动驾驶标准语义从主观走向客观提供基础。随后,重点论述通过语义空间机制实现标准语义客观化和动态化的路径,提出使AI系统自主感知、推导、生成并适配标准,从而建立“标准认知闭环”的方法。我们将结合自动驾驶典型案例(如“障碍物”定义和“跟车距离”标准),对比说明标准概念如何由人工定义转向由AI语义推导主导,并分析这一转变对标准制定组织架构、权威机制以及测试验证体系的深远影响。最后,提出面向未来的政策建议与展望。
二、传统概念定义机制的主观性及局限人为定义标准是传统标准化工作的核心特征。在这一模式下,标准中的关键概念和参数(如障碍物、安全距离等)完全依赖于专家委员会的讨论与共识来确定[6]。尽管专家经验在一定程度上保证了标准的专业性,但也不可避免地带来了主观偏见和有限性:
1. 概念定义的主观性
专家对同一现象可能有不同理解,定义出来的概念往往带有各自领域的局限。例如,“安全车距”可能有经验主义的两秒跟车规则,也可能有人主张更复杂的制动距离公式,不同标准采用的定义标准并不统一。这种主观决定的概念有时缺乏严格客观依据,更多是人为约定的产物,其合理性依赖于专家的经验假设。如果环境超出了假设范围,概念定义就会失效。
2. 阈值和规则的静态性
人为制定的标准通常以固定阈值或规则形式出现,一经发布短期内难以更改。然而在自动驾驶这种复杂系统中,影响安全和性能的因素非常多样,如天气、路况、车辆性能、人为行为等,固定的规则难以应对所有组合情况。例如传统标准可能规定“高速公路限速100 km/h,跟车至少保持2秒距离”,但在大雾或结冰情况下,这一固定规则显然不足以保证安全,却没有及时的机制去动态调整标准。
3. 更新滞后与适应性衰减
传统标准的制定和更新流程漫长,从提出、研讨到发布往往历时数年。当标准终于出台时,技术和应用场景可能已经发生了巨大变化,导致标准滞后于实践。在技术飞速演进的自动驾驶领域,这种滞后尤为明显:许多标准发布时,自动驾驶系统的软件算法可能已升级多代,新出现的问题无法及时纳入标准考量,标准的适用性随时间衰减。
上述局限在自动驾驶这样的高度智能化复杂系统中被进一步放大。首先,自动驾驶系统具备一定的自主学习与决策能力,意味着它可能遇到人类未曾定义过的新情境。当传感器捕获到异常情况而标准并无明确规定时,系统会无所适从。例如2018年Uber自动驾驶汽车的致死事故调查表明,车辆传感器探测到了横穿马路的行人,但因该行人不在斑马线内,软件一度将其分类为“未知物体”,反复在汽车、自行车等类别间切换,未能及时识别为行人并采取措施。这起事故揭示了人为预定义类别的不完备:工程师并未预想“行人不走斑马线”这种违反常规的场景,导致系统缺乏相应标准行为[7],最终酿成悲剧。
图1:自动驾驶系统在识别道路障碍物时遇到分类混淆的示意图。2018年Uber自动驾驶测试车曾因软件不断改变对前方目标的分类(车辆、自行车、未知物),未将其确认为行人,最终导致碰撞事故。这一案例暴露了人为定义概念范围有限、缺乏动态适应的问题。
更普遍地,高度动态的交通环境令静态标准难以周全。人工标准往往假定了一些简化情形,如正常天气、普通驾驶员反应时间等。然而现实中可能出现远超假定范围的情况:极端天气、非常规道路行为、新型交通工具等等。当这些非典型情况出现时,人工标准的规则和阈值往往显得僵化甚至失效,表现为标准的有效性衰减。例如,“安全跟车距离”传统上采用“两秒规则”,但研究指出在浓雾等能见度极低的情况下,两秒远远不够,可能需要9秒以上的跟车时间才安全。显然,一成不变的规则无法适应环境剧烈变化,若自动驾驶汽车机械地遵从过于简单的标准,反而会埋下安全隐患。
此外,传统标准由权威机构制定,也带来标准更新与协同的瓶颈。不同地区、不同厂商的标准由于制定者和时间不同,可能存在差异,导致自动驾驶系统在跨区域、跨平台运行时面临标准不一致的问题。如果每一次更新都需要耗时耗力地协调各方意见,将难以及时响应技术的发展。可以预见,随着自动驾驶走向更高等级,这种依赖人工的小规模标准修订模式将难以满足频繁的升级需求。标准制定机制本身需要更高的敏捷性和智能化。
总之,传统以人为中心的标准化机制在自动驾驶领域暴露出日益明显的局限:人为定义的概念具有主观随意性且覆盖面有限,难以应对异常复杂场景;标准规则固化后难以及时演进,在快速变化环境下适用性递减;人工协调更新效率低下,无法支撑大规模协同的智慧交通体系。问题的根源在于:知识的获取与应用方式发生了变革,而标准化仍停留在过去的人为设定范式上。为走出困境,我们需要引入新的理论工具,使标准能够融入人工智能的自主认知过程,在复杂动态环境中保持准确与高效。这正是DIKWP语义空间机制将要解决的问题。
三、DIKWP语义空间理论基础要实现标准从人工主导向AI主导的转变,首先需要使机器能够“理解”并操作标准所涉及的概念和规则。这就要求将标准的语义引入人工智能的认知过程中。DIKWP语义空间理论为此提供了坚实的基础。
DIKWP模型是由中国学者段玉聪教授等提出的一种新型认知框架[8],它扩展了经典的DIKW(金字塔)模型,在数据-信息-知识-智慧四层之上引入了“意图”(Purpose)层。五层架构分别代表:
1. 数据(D)
来自传感器或观测的原始数据,未经加工的客观事实;
2. 信息(I)
对数据进行处理得到的有意义模式或描述(回答“是什么”的问题);
3. 知识(K)
将信息与上下文、规则相结合,形成可用于推理和决策的准则(回答“如何做”的问题);
4. 智慧(W)
在大量知识基础上进行综合权衡,形成高层次的洞察和策略(回答“是否应该做”的问题);
5. 意图(P)
系统希望达到的目标、目的和价值判断,是引导整个认知过程的最高层考虑(回答“为何做”的问题)。
传统DIKW模型通常被形象地表示为一个金字塔结构,其中数据位于底层,逐级向上是信息、知识,智慧居于塔尖。这种层级关系暗示着越往上语义越抽象、价值越高。但DIKW模型本质上是单向的静态层级:数据经过处理成为信息,最终产生智慧,缺少对目的的考量。而DIKWP模型通过加入意图层,使整个体系有了目标导向。更重要的是,它强调各层之间并非简单线性关系,而是通过网状结构进行多向互动。意图既受到下层数据和知识的支撑,也反过来对数据的采集、信息的提取、知识的应用施加指导和约束,从而形成一个闭环的认知系统。
图2:传统DIKW金字塔模型示意图(不含意图层)。DIKW模型将认知过程分为数据、信息、知识、智慧四个层次,逐级提炼抽象。DIKWP模型在此基础上增加了“意图”层并引入网状反馈,使各层级不再孤立线性,而成为一个有机互动的整体。
在DIKWP模型中,语义空间(Semantic Space)是一个核心概念。语义空间指的是AI系统通过学习和训练所形成的,对概念及其关系的高维向量表示或图谱表示[9]。简单而言,它是一个表达知识和语义的“场所”,使得机器能够以数学形式理解语义。DIKWP模型的网状结构实际上定义了一个跨层次的语义空间:数据、信息、知识、智慧、意图这五类要素各自形成子语义空间(或称“图谱”),同时通过关系链接在一起,构成一个整体的语义网络。
段玉聪等人在其专利和论文中详细阐述了这种网状语义交互如何实现。简而言之,每一层的元素(概念)都可以在语义空间中找到对应表示,并与上下相邻层甚至跨多层的元素产生关联和反馈。例如,在自动驾驶认知过程中:
1. 数据层(D)
来自摄像头、激光雷达等传感器的原始感知数据,通过神经网络转换提取出环境信息(D→I)。
2. 信息层(I)
将处理后的信息与地图、交通规则等背景知识结合,形成知识图谱(I→K)。
3. 知识层(K)
基于知识图谱进行推理和规划,制定当前情境下的驾驶策略(K→W)。
4. 智慧层(W)
综合多方因素权衡决策,并根据安全意图对决策进行校正优化(W→P),同时意图层反馈指导下重新获取数据和信息(P→D),以不断校正行动,确保最终决策符合安全目的。
通过以上环节,意图(例如“安全第一”)贯穿始终,对各层起到指导作用;而底层数据的异常情况也能通过逐层上报影响高层决策。这就形成了数据与意图之间的双向语义映射:一方面,意图层将高层目标翻译为对低层数据和知识的要求;另一方面,来自环境的数据不断更新对意图的满足程度的评估。这种双向反馈保证了AI的认知和行为与预设目的保持一致。
DIKWP模型的网状认知结构使AI具备了类似人类的反思与调整能力,被视为迈向人工意识的重要一步。专利中提出的“双循环”架构,实际上就是两个DIKWP循环:基础认知循环完成感知到决策的常规流程,元认知循环则监控基础循环的运行效果,根据意图不断自我反思、调节参数。这种架构等于给AI安装了一个“监督者”,让系统能够自我监控(self-monitoring)各认知环节是否达到目标要求,出现偏差就自我调整(self-regulation)。有学者指出,这样的DIKWP双循环模型已具备初步的自我意识特征,因为系统内部有了一个能够解释和审视自身决策的认知网络。
在语义空间的支撑下,AI系统对外部世界的理解不再依赖人工预先定义的概念,而是可以通过数据驱动的方式自主形成概念。DIKWP模型提供的数学化语义框架确保每一层次、每一步骤都有明确的形式化定义。这意味着诸如“障碍物”“安全距离”这类概念,可以由AI在语义空间中计算和推导出来[10],而非完全依赖人工注入。标准中的概念如果能映射到语义空间里的形式表示,AI就能够像操作数据那样操作概念——比较、分类、归纳、演绎,并根据目标调整概念内涵。这正为标准的客观化和动态适应奠定了理论基础。
概括而言,DIKWP语义空间理论的关键在于:将数据、知识、目的等要素融为一体,以统一的语义表示和双向映射机制贯穿AI认知全过程。这样一来,机器具备了处理标准语义的能力,能够理解“遵守某标准”背后的意义是什么,违反标准会对最终意图造成何种影响等。相比只会执行硬编码规则的传统系统,嵌入DIKWP模型的AI对概念和规则有了“理解”,这为后续实现标准的机器自主生成与适配创造了可能。
四、标准语义客观化与动态适配的路径在DIKWP语义空间理论支撑下,我们可以重新思考标准制定和执行的流程,使其成为AI自主认知的一部分。核心思想是实现标准语义的客观化和动态化,即将标准的含义从人为主观约定转化为机器可理解的客观语义表示,并让标准能够随着环境和目的的变化实时调整。具体路径如下:
1. 概念语义建模
将标准中的关键概念实体映射到DIKWP语义空间予以形式化表示,这是客观化的基础步骤。传统标准中的概念定义往往以自然语言描述,含糊且依赖语境。我们需要为其建立对应的数据-信息-知识表示。例如,“障碍物”可以在数据层关联到传感器点云或图像中检测到的物体,在知识层关联到“妨碍车辆前进”这一逻辑判据。通过构建概念图谱,明确其属性、关系和评价指标,使抽象概念有具体的语义坐标。这种语义建模打破了概念纯粹依赖人工解释的主观性,转而用机器可以处理的符号和关系来刻画概念。
值得一提的是,这里的概念图谱往往不是孤立的,而是成体系的多层次图谱。段玉聪等提出利用DIKWP模型扩展传统知识图谱,形成相互关联的数据图谱、信息图谱、知识图谱、智慧图谱和意图图谱。每一类图谱对应DIKWP的一个层次概念。图谱之间通过关系映射,使得一个概念在不同抽象层级上都有体现。例如,“跟车距离”在数据图谱上体现为车间距离数值,在知识图谱上体现为安全跟车规则,在意图图谱上体现为安全/效率的平衡要求。通过这种多视角语义映射,标准概念的内涵被客观“锚定”在大量跨层次的事实和规则之中,减少了人为随意性。
图3:标准语义客观化的多层次图谱表示示意图。上方表示真实世界中多源异构、可能不精确/不完整的主客观数据和知识资源;下方五个括号内分别是DIKWP五层对应的图谱(数据图谱、信息图谱、知识图谱、智慧图谱、意图图谱)。概念客观化过程包括:对原始数据进行聚类以形成数据图谱,对信息进行拓扑关联以形成信息图谱,对知识进行逻辑约束以形成知识图谱,对智慧进行价值评估以形成智慧图谱,对意图进行函数量化以形成意图图谱。通过这样的语义建模,每一层次的语义都有据可依、可计算表征,从而支撑标准概念的准确定义和跨层验证。
2. 语义推理与标准生成
一旦概念完成形式化建模,AI系统就可以利用语义空间中的知识对其进行推理和演绎,进而自动生成标准条文或规则。传统标准是由专家人工撰写条款,现在这一过程可部分交给机器完成。具体而言,AI根据意图(目标)对知识图谱进行推演,找出满足目标的知识组合,并将其转化为规则形式。例如,给定“确保跟车安全距离”这一意图,系统可以在知识图谱中检索与碰撞避免相关的知识:包括车辆制动性能数据、人的反应时间信息、道路湿滑程度与制动距离关系等,然后结合智慧层的综合评估函数,推导出安全距离应满足的条件。最终将这些条件表述为标准条文(如以速度和路况为自变量的最小车距函数)。这种生成并非凭空创造,而是基于大量客观知识推理的结果,因而标准的内容具有客观依据而非仅凭经验。
举例来说,在没有人为设定具体值的前提下,AI可能通过仿真推断出:“在干燥柏油路面,100km/h速度下的安全车距约为80米;而在结冰路面同速则需至少300米。”然后将其固化成标准。如果环境和车辆参数不同,AI可重新推理计算得到新的安全距离要求。这体现了标准生成的动态化:并非一次固定,而是可随条件变化而变化。借助强化学习和仿真技术,AI还能自己试错优化标准。例如在虚拟交通环境中不断调整跟车距离规则,观察碰撞率等指标,从而找到更优的规则组合。这类似一种标准的自动建模与验证过程,使得标准条款本身朝着更高安全性、效率性的方向演进,而无需等人来手工修订。
3. 标准适配与语义闭环
自动生成的标准需要在真实场景中应用和检验,实现“标准认知闭环”。所谓认知闭环,指的是AI系统将生成的标准应用于控制决策,不断监测执行效果,并反馈回来以更新标准。这个过程与DIKWP模型的双循环极为吻合:基本循环中标准以规则形式参与智慧层决策,元认知循环监控这些决策是否满足意图要求,若有偏差则修改标准规则或参数。如此一来,AI就像人类那样具备了根据经验不断完善行为准则的能力。标准不再是僵硬的外在约束,而成为系统内部一个可以优化的认知要素。
例如,自动驾驶系统根据当前已生成的“安全跟车距离标准”进行驾驶控制,同时持续统计车辆的紧急制动频率、碰撞近失误(near-miss)事件等指标。如果发现某些工况下紧急制动频繁(说明跟车距离偏短),元认知模块就会识别出标准的不足,进而通过语义空间调整跟车距离的公式参数,使之更保守。在下一轮决策时,新标准即被采用,从而减少了风险发生。这种在运行中自适应调整标准的机制,保证了标准能够随着环境和系统状态实时优化,始终紧贴既定意图(安全)的要求,实现闭环控制。正如有学者指出的,DIKWP双循环模型允许AI系统“从数据到目的的双向反馈,不断自我纠正和优化”,达到自我改进(self-improvement)的效果。
值得强调的是,这里的标准适配并非毫无约束的自由演化,而是始终在意图的引导下进行。意图相当于为标准的调整设定了评价函数和边界条件,确保AI在追求某一性能(比如效率)时不会牺牲另一些更高层价值(比如安全和伦理)。DIKWP模型通过将“目的”显式嵌入认知过程,保证了即使标准由AI自动调整,其价值取向仍与人类初衷保持一致。这解决了外界对于“机器学习自行改变标准是否可靠”的担忧:因为人类在意图层始终掌握方向盘。AI只能在预设的价值框架内优化标准,而不能偏离根本目标。这种机制实现了标准语义的客观化(标准由数据和逻辑推导而非人脑拍脑袋决定)和动态协同(标准会随环境和需求变化,在人类价值约束下持续演进)。
4. 机器可计算与协同
通过语义空间客观化的标准具备一个突出优点——机器可计算。既然标准概念和规则都已有形式化表达,AI系统在做决策时就能将其作为约束条件直接纳入算法。例如决策规划算法可以把“跟车距离≥安全距离函数(speed)”作为约束加入优化求解,这比起传统硬编码if-else检查更灵活可靠。此外,不同车辆、不同智能体还能共享这些标准语义,实现协同一致的行为。多辆自动驾驶车之间可以实时交换对标准参数的调整建议,例如在车路协同环境下,路侧AI可根据整体交通流优化出动态车距标准广播给所有车,车辆据此调整,实现协同车距控制,避免拥堵和事故。这种协同是建立在统一语义理解基础上的,否则各系统对标准理解不一致将无法合作。通过DIKWP语义空间,标准从文本变成了所有智能体共同理解的一套机器语言,从而保障了跨系统的协同一致性。
综上,借助DIKWP语义空间机制,标准化过程可以走出“专家经验拍板—固定条文发布—若干年后修订”的低效模式,进入“语义建模—机器推理生成—自主适配优化”的智能循环。标准语义客观化让AI能够“读懂”标准,动态化让AI能够“写出”并改进标准,二者结合形成了标准的自适应进化能力。这样建立的“标准认知闭环”具有以下突出特征:
1. 客观性
标准基于客观数据和知识推导,而非个人主观臆测,因而更具科学依据和说服力。
2. 动态性
标准随环境和系统状态即时调整,避免了过时和一刀切,在安全与效率间取得更优平衡。
3. 可计算
标准以数学/逻辑形式嵌入AI决策,可被程序直接调用计算,提高执行的一致性和准确性。
4. 可协同
不同AI系统共享统一的语义标准,实现群体智能协作,减少因标准不一导致的摩擦。
5. 闭环性
标准制定-执行-评价-再制定形成闭环,不断纠偏,持续改进,类似PDCA循环在标准领域的应用,但由AI高频高速地自动完成。
当然,实现这一切仍需攻克许多技术与管理难题,例如语义冲突如何检测、标准调整的幅度如何受控、人类监管如何介入等。这些将在后文探讨。但总体而言,DIKWP语义空间为标准由静态走向动态、由主观走向客观提供了清晰路径,在自动驾驶这样复杂多变的系统中,这种新范式有望显著提升标准的有效性和生命力。
五、自动驾驶标准语义案例分析为了更直观地理解从人工定义到语义空间推导的转变,本节选取自动驾驶领域两个典型的标准概念——“障碍物”(Obstacle)和“跟车距离”——进行案例分析。我们将比较传统标准对它们的定义方式与AI语义空间推导方式的差异,说明标准语义由主观转客观、人工转AI主导的具体过程。
(一)案例一:“障碍物”概念标准的演进1. 传统定义方式
在人工驾驶时代,法规和行业标准通常用简短文字定义“障碍物”。例如某交通法规可能定义:“障碍物是指道路上影响车辆正常行驶的物体,包括车辆、行人、动物、坠落物等。”这种定义具有列举性质,依赖制定者枚举出可能的障碍类型。这一方式的问题在于列举不完备和类别生硬。现实中潜在障碍物的形式千变万化,超出列表的情况屡见不鲜。例如飘在路上的塑料袋可能不是严格意义的“障碍”,但有时也会对自动驾驶感知产生干扰;又如违法横穿马路的行人并不在“正常道路使用者”范畴内,按照某些标准他甚至不被视作常规场景的一部分。传统定义无法涵盖这些灰色地带。此外,人工定义往往注重静态属性(是什么物体),而忽视动态意图(其是否真的会阻碍车辆)。这样的结果是,自动驾驶软件依据死板的类别做判断,容易出现误判或漏判。
2. DIKWP语义空间方式
在语义空间中,“障碍物”不再是一个人工标签,而是通过数据和意图推理动态识别的结果。AI不会仅依据对象种类下结论,而是考虑该对象与车辆行进意图之间的语义关系来认定障碍物。具体过程是:传感器数据检测到前方某物体(这给出低层的数据实例),信息层将其识别为某种对象(例如“一个移动的自行车”),知识层进一步推理该对象的轨迹与本车轨迹是否冲突,如果预测可能发生碰撞,那么智慧层在考虑安全意图后,将其判定为障碍需要避让;反之,如果对象虽在前方但不会干扰行车(例如隔离带后方行人),则不视为障碍。这种判定基于关系语义而非固定类别——障碍物被定义为“与本车运动意图相冲突的实体”。这个定义是客观且上下文相关的,因为它出自模型对运动学和意图的计算推理,而非人脑的简单列举。正如有研究提出的,通过场景知识图谱可以预测未显式识别的实体。如果自动驾驶车辆在住宅区路上看见一个滚来的皮球,传统规则可能不把球当严重障碍,而AI的知识图谱会联想到“球→可能有小孩跑出”这一关系,从而预测附近潜在有儿童,进而将尚未出现的儿童也纳入“障碍”范畴提高警惕。可见,语义空间推理能主动扩展“障碍物”的内涵,连人类都未明确列入标准的情况也能覆盖。
这一由AI主导的障碍物概念转变带来了巨大好处:系统不再拘泥于预设列表,而是实质性地识别风险。Uber事故的教训在于软件没有把非斑马线行人当正常行人看待;而引入语义推理后,无论行人是否处于典型位置,只要客观上对车辆行进构成阻碍,皆可被视为障碍物。这种客观语义标准显著提升了安全裕度。当然,实践中仍需确保AI的推理可靠、不误判正常物体为障碍(降低误报),这可以通过大量数据训练及在智慧层加入权衡机制(如引入“不确定时宁可信其有”的意图倾向)来实现。总的来说,“障碍物”标准已经从人工经验罗列升级为AI基于实时场景语义分析的动态判断,标准的泛化性和准确性均获得提高。
(二)案例二:“跟车距离”标准的演进1. 传统定义方式
安全跟车距离是道路安全标准中的重要一项。传统上通常采用简单经验法则,比如著名的“两秒规则”:在前车经过一个参照物时开始计时,确保自己至少在两秒或以上后经过该参照物,以此保证足够的反应距离。这一规则背后的假定是正常路况和一般驾驶员反应能力。但显然,两秒只是一个大致经验,并未细化不同速度、不同车辆性能、不同天气下的要求。一些标准手册也给出基于速度的推荐距离,例如“每小时速度乘以0.6得到米为单位的最小间距”等。然而这些规定依然粗糙且僵化,无法覆盖极端情形。研究表明,在大雾、暴雨等恶劣条件下,两秒距离远不足够,需要显著延长安全跟车时间,例如浓雾情况下建议9秒甚至更多。然而现有法规往往没有针对不同气象条件的硬性标准,只是笼统要求驾驶员加大车距,缺乏量化依据。此外,传统标准往往只给下限要求(至少多少距离),而不考虑过大会影响通行效率,也没有依据交通流实时状况来动态调整的机制。
2. DIKWP语义空间方式
在AI主导下,“安全跟车距离”不再用一个恒定值或经验公式表示,而是由系统根据当下环境和车辆状态实时计算的最优值。AI在知识层储备了丰富的物理模型和经验数据,例如:制动距离随速度和路面附着系数的函数、不同车辆制动性能差异、人类与AI控制反应时间、甚至前车刹车灯亮起到本车识别的延迟等信息。智慧层则根据安全意图设定一个风险容忍度(例如碰撞概率阈值)。当需要确定跟车距离时,AI综合以上因素通过求解满足碰撞概率低于阈值的最小距离来得到当前条件下的安全距离。其结果可能是一个随速度连续变化的函数曲线,而非几个离散档位。这意味着在晴天干路,60km/h也许只需30米,而大雨湿路即使40km/h也可能要50米,以保证相同的安全余度。
更进一步,AI还能根据交通流优化车距,以兼顾安全和效率。当道路空闲时,为最大安全可以取安全距离的上限;而当高速公路高密度通行时,各车可在保证不超过碰撞概率上限的前提下适当缩短车距以提高道路容量。这实际上实现了标准的情景自适应:标准不再是固定值,而是一个在安全意图函数指导下动态优化的变量。每辆车的AI既遵循统一的安全意图,又根据自身状态微调距离,实现个性化适配。例如,新手驾驶模式的AI可以选择比普通模式更保守的距离标准,而激活拥堵跟车模式时又可在低速下减小车距以提高路口通行率,但始终确保风险可控。所有这些变化过去都需要人来决策,现在AI通过语义模型自我决策即可完成。
为了保证透明和一致,AI可以将这些动态距离标准通过车联网与其他车辆和路侧系统共享。这样一来,标准虽因车因时而异,但整体仍在一个协调框架内,不会出现两辆车各自采用冲突的安全距离标准。例如路侧单元可以广播当前天气和路况建议的安全跟车时间系数,所有车辆据此调整各自计算结果的阈值,达到协同一致。从监管角度看,也可以要求AI车辆记录其跟车距离标准计算依据,以备审核。这就像给每次跟车行为都附上一份“依据标准X版本Y的证明”,而这个标准X版本Y实际上是AI根据标准模型和当时参数即时生成的,但在语义上可溯源至统一模型库。
通过上述转变,“跟车距离标准”获得了前所未有的柔性和智能。它不再是一纸死规矩,而成为一种由AI持续维护的“活标准”。其优点显而易见:既保证安全又尽量减少不必要的保守冗余,从而兼顾通行效率。正如两秒规则的创造初衷是应对人类注意力不足,AI驾驶则可以精确测距和快速反应,因此在很多情况下两秒是过于保守的,而AI完全可以在维持同等甚至更高安全水平下减少车距以提高效率。当环境变差时,AI又能毫不迟疑地拉大距离,比人类更可靠地遵循安全极限。可以说,AI让安全距离标准实现了分辨力和适应性的双提升:分辨力体现在不同情境下标准值不同而精确,适应性体现在标准会随环境智能变化。对于监管者而言,也需要转变思维,接受标准的内涵可以是模型而非固定条款。只要模型经过验证可靠,AI车辆依据模型自调参数,不仅不违背标准,反而是在更严格地遵守标准的意图精髓——安全第一,条件允许下兼顾效率。
综上,两大案例表明,通过DIKWP语义空间,自动驾驶中的标准概念从“人怎么定义我就怎么执行”演进为“我(AI)根据人想要的效果主动定义和执行”。障碍物的定义因融入了语义推理而更加全面客观,跟车距离的标准借助数据驱动实现了动态优化。这种演进一方面解放了人类专家——他们不必穷举所有情况,只需制定意图和大致框架,让AI去细化实现;另一方面发挥了AI优势——利用海量数据和实时计算,使标准因地制宜、与时俱进。可以预见,随着自动驾驶技术和车联网数据的进一步丰富,AI对标准语义的掌控力会越来越强,许多目前由人工规定的细则将转化为AI根据总原则自动推导。这并非削弱标准的权威性,恰恰相反,是以一种科学且务实的方式让标准更好地发挥作用。
六、AI主导下的标准生命周期管理机制标准语义客观化和动态适配带来的不仅是单个标准条目的改变,更是整个标准生命周期管理机制的重构。在AI深度介入标准制定、实施、评估的情况下,传统标准生命周期的各个环节都会发生相应变化。下面我们按照标准生命周期的阶段,对比分析AI主导模式与传统模式的差异,并阐述相应的管理机制。
1. 需求识别阶段
传统上,新标准或标准修订往往源自事故教训、技术革新或行业诉求,由人提出需求。而在AI主导机制下,标准需求的发现可以由数据驱动完成。自动驾驶车辆网络会产生海量运行数据,AI可以持续分析这些数据,自动发现现有标准无法覆盖的场景或新的优化空间。例如,当系统检测到某类交通冲突频发且现行规则无法有效避免时,AI可判定现有标准存在漏洞,生成新标准需求报告。再如,新传感器新算法部署后,AI可模拟其效果,指出旧标准对新技术不适用之处。这种由AI发现需求的方式具有及时、全面的优点,因为它基于实时客观证据而非事后总结。标准制定机构应搭建相应的平台,汇集自动驾驶系统反馈的运行数据和标准适用性报告,建立标准需求数据库。人类专家在这一阶段的角色将从“问题发现者”转变为“问题审核者”和“目标设定者”。当AI提出需求后,专家审核其合理性并明确新的意图目标。例如AI报告“跟车过近险情增多”,专家确认问题并设定目标“将险情率降至某值以下”,交由AI进入下一步建模解决。
2. 标准设计与语义建模阶段
过去此阶段是由专家起草标准草案文本。而AI主导模式下,标准设计更多体现在语义模型的构建上。根据识别的需求和既定意图,AI将在DIKWP语义空间中扩展或调整知识图谱来满足新需求,进而自动生成标准草案。正如前文讨论的,AI可以调用相关领域知识,通过推理获得解决问题的规则方案。这一过程中,标准制定机构需要提供高质量的领域知识库和模拟测试环境作为支撑,让AI能够在虚拟环境反复推演验证新标准方案。例如为了制定“无人出租车上下客区域标准”,AI需要城市道路结构数据、乘客行为模型等知识;机构应提供这些数据并让AI仿真数千种上下客场景,寻求最佳规则。AI产出初步标准方案后,人类专家的职责是语义审查与修正。他们需要检查AI给出的标准在语义上是否符合人类社会的价值和法律要求,没有遗漏特殊情形。DIKWP模型的可解释性在此大显身手——由于标准方案源自知识推理,AI可以给出每条规则背后的推理链条,让人类理解其合理性。专家可能会基于社会因素对AI方案做小幅修改,例如增加“特殊人群例外条款”等,这些修改再反馈回语义模型使之更新。可以预见,此阶段将形成人机协同起草模式:AI负责根据客观指标起草,专家负责监督价值取向和合规性。
3. 标准发布与实现阶段
在传统模式中,标准一经发布就固定实施,靠培训、执法等手段推广。而在AI主导模式下,标准更像软件,发布的是标准算法或知识库版本。自动驾驶车辆可通过网络更新获得新的标准语义模型,实现全体同步升级。同时,考虑到不同地区、不同厂商可能需要各自调整(例如地域交通特点不同),标准发布可以采取模块化形式:核心安全意图和原则由国家级标准给出,具体参数和实现逻辑由地区或企业在核心框架下由AI自行适配生成,形成“标准内核+适配插件”的发布模式。标准管理机构需建立数字化标准发布平台,以API或知识图谱形式发布标准内容,使自动驾驶系统能够机器读取并整合到自身决策中,而不仅仅是人工阅读PDF文档。发布后,在实现阶段AI会将标准模型嵌入其认知决策模块,如同加了一块新的“规章插件”。值得注意的是,因为标准是动态的,不同车辆在过渡期内可能运行不同版本的标准模型,这要求标准管理机制支持多版本并存。类似软件的版本控制,对每一辆车所执行的标准版本做好记录,以便发生事件时追溯。监管部门可以规定关键安全标准只能逐步过渡,比如新旧标准模型要在云端交通仿真中验证协同无误后方可混行,以防标准差异导致系统冲突。
4. 测试验证阶段
标准的测试验证传统上是通过样机试验、专家评审等进行,主要在发布前。但AI动态标准需要持续测试验证,贯穿标准生命周期。这就像持续集成/持续部署(CI/CD)在软件开发中的作用。自动驾驶仿真平台和沙盒测试环境将发挥关键作用。每当标准模型有所更新,无论是AI自动调整还是机构发布新版,都应先在大规模仿真中验证其效果和安全性。在仿真里可以模拟各种极端工况,检查新标准是否引入了新的安全隐患或造成性能退化。如果发现问题,AI再根据仿真结果调整标准,形成闭环。这种测试验证因为频率高、覆盖广,必须主要依靠AI自动完成,人力仅做抽查和结果审核。同时,在现实世界中部署后,还需线上监测标准执行情况。车辆会不断将遵守标准时的性能数据(如事故避免率、交通效率指标)反馈给云端,由AI统计分析验证该标准是否达到预期目的。如果没有,则触发新一轮优化。可以说,测试验证从过去一次性的“考试”,变为持续不断的“监测与调优”。相应地,监管机构需要制定验证指标体系,如安全性指标(碰撞率)、协同性指标(车与车标准一致性的违背率)等,由AI实时评估上报。通过这些指标,监管方可以对标准模型本身进行认证和分级(比如给出当前自动驾驶标准模型的“安全星级”)。事实上,世界人工意识协会等组织已经在研究用DIKWP白盒测评方式对AI认知能力分级,这类似地可用于评估自动驾驶AI对标准的理解与执行水平。
5. 标准维护与进化阶段
在传统模式下,标准维护周期长,往往几年十几年才修订一次。而AI主导模式下,标准处于持续进化状态。为防止频繁变更导致无序和兼容性问题,需要建立演进控制机制。首先是版本管理:每项标准模型都应有版本号和变更记录,新旧版本差异清晰记录。当升级时,应保证关键安全约束不降低,只在更优化方向调整。必要时采取小步渐进策略,分多次渐变以检验效果。其次是多版本共存管理:可能出现某一过渡期内,不同车辆跑着不同标准模型版本。此时需要确保不同版本之间不会产生互相冲突或无法合作的情况。如果高版本标准需要所有车辆参与才能发挥作用,则可能暂时降低到低版本模式以兼容旧车,或通过路侧协调不同标准车辆的行为。标准管理平台应能识别环境中标准的不一致并进行干预。例如若两辆车跟车距离标准不同导致接近阈值冲突,路侧单元可发信号要求其中更激进的车临时采用保守模式。再次,人工参与的闸门:尽管AI可以自动演化标准,但出于安全和伦理考虑,应设置某些门槛需要人工审批。例如涉及法律责任的新标准,或对社会资源有重大影响的标准,都应由监管机构人工评估后才允许部署。AI可以提出标准变更建议,但关键决策点由人类拍板,以体现社会意志。这类似自动驾驶中的L4/L5仍需在人机共驾时由人随时接管一样,AI标准演进需要人类监管兜底。
综合而言,AI主导下标准生命周期管理体现出DevOps化特点——开发(Design)和运营(Operate)融为一体,标准在使用中持续改进。标准制定组织需要适应这种转变,在架构和职能上做出调整。例如,可以设立专门的“AI标准研究室”,由数据科学家和标准专家联合团队,持续监控并指导AI的标准演进。组织架构从原先项目式的标准工作组,转变为平台式的标准运营中心,负责标准模型的日常“运维”。同时,权威机制也会发生变化。过去标准的权威源自政府或行业协会的认可发布;将来,在确保符合高层意图的大前提下,数据和事实将成为标准权威的新基础。当AI通过百万小时路测数据证明某标准模型优于旧标准,监管机构应及时赋予其合法地位,哪怕其具体条文并非出自某位专家之手。这要求管理者有新的胸怀和智慧:以科学证据为标准背书,而不仅是头衔资历。相应地,验证体系要升级,以数据和模型评测为核心来确定标准的可信度,而非仅靠少数专家评审。DIKWP模型提供的白盒可解释评测就是有力工具,可用于量化AI标准模型在各层次上的能力。
最后,标准生命周期的重构还需要法律和政策的配套跟进。例如,允许在限定环境中试行新标准模型(“监管沙箱”政策),明确发生事故时责任如何界定(如标准模型本身有缺陷时谁负责,是制造商还是算法提供者),等等。这些都需要逐步探索。总体而言,AI主导的标准生命周期管理将更加灵活高效,但也更复杂,要求“监管科技”同步发展。幸运的是,中国已经在推动人工智能治理方面的技术手段,例如利用区块链和可信计算确保AI决策透明可追溯。这些技术同样可以应用于标准管理,确保即便标准频繁演进,其透明度和可问责性不降低。
七、政策建议与未来展望自动驾驶标准从专家主导转向AI主导,是技术和治理模式的一次深刻变革。要顺利实现这一转变,除了技术层面的努力外,政策和管理层面应提供积极引导和保障。基于本文讨论,提出以下政策建议及对未来的展望:
1. 构建智能标准化基础设施
政府应牵头搭建开放的标准语义平台,汇聚自动驾驶相关的数据资源、知识图谱和仿真环境,为AI生成和验证标准提供基础设施支撑。例如,建设国家级“自动驾驶标准数字孪生平台”,让企业和研究机构的自动驾驶AI都可以接入,在虚拟城市中测试标准模型的效果。这相当于为标准制定提供了一个“数字试验场”,大幅提升标准演进的效率和安全性。平台应提供统一的DIKWP语义接口,使不同团队开发的知识图谱和模型能够兼容融合,避免各自为政。通过基础设施共享,降低小企业参与标准创新的门槛,形成协同创新格局。
2. 更新标准化组织架构与人才培养
标准制定机构需要扩充跨学科人才队伍,增设AI标准工程师等岗位。这些人员既懂标准法规又精通数据和算法,能够与智能系统协作制定标准。或可考虑在标准委员会中引入“虚拟委员”,即由AI系统提出专业建议供人类委员参考决策。组织架构上,可成立专门的AI标准工作组或实验室,持续关注AI技术进展并将其融入标准。政府和高校应开设相关培训项目,培养既具备标准化知识、又懂人工智能技术的人才储备。这支新型人才队伍将成为推动智能标准化的核心动力。
3. 制定智能标准化的法律法规
现行法规多未涉及AI参与标准制定的问题,需要前瞻性地完善。一方面,要明确责任边界:当AI生成的标准存在缺陷导致事故时,各相关方(开发者、使用者、监管者)的责任如何划分。这将促使各方更加谨慎地验证标准模型。另一方面,赋予合法地位:修订标准化相关法律,承认机器可读标准和动态标准的合法性。例如,可在法律中引入“数字标准”的概念,允许标准以算法或软件形式发布,并规定其与传统文本标准具有同等效力。这将消除未来推行AI动态标准的法律障碍。此外,数据共享与隐私保护立法也需跟进,确保车企和机构愿意共享安全相关数据,又能保护商业机密不外泄。这方面可借鉴个人信息保护的框架,制定产业数据共享的规则。
4. 逐步试点与过渡安排
考虑到完全让AI掌舵标准化是革命性的改变,建议先从局部领域或较低风险的场景开展试点。在封闭园区、限定路线的自动驾驶运营中,尝试让AI根据现场情况调整部分技术标准(例如限速或跟车距离),由监管部门观察评估效果。一旦证明可行,再逐步拓展适用范围。这种沙盒试点可以让人们适应动态标准的存在,为制度完善积累经验。在过渡期内,人类专家和AI应双重冗余参与标准制定,以防止AI决策失误带来严重后果。随着AI技术成熟和信任的建立,再逐步提高AI自主权比例。监管层面也应制定路线图,明确各阶段的目标和评估指标,让转型有章可循、稳步推进。
5. 强化标准模型的评估认证体系
建议由国家市场监管等部门牵头,制定一套AI标准模型评估规范。参考DIKWP白盒测评框架,对标准模型的各层能力进行量化评估。例如,评估其在模拟环境中的安全裕度、在多场景下的适应覆盖率、对意图的符合程度等。评估结果可以形成类似星级或分数的认证,只有达到一定等级的模型才能用于真实道路。这将促使开发者不断优化标准模型以通过认证,也给公众和企业提供了直观的信心背书。鉴于AI模型评估技术正快速发展(如针对大模型的认知测评已出现),完全可以将其引入标准领域。长期看,甚至可能出现专业的第三方标准AI审计机构,独立审查重要标准模型的公平性、安全性和合规性,确保AI没有在标准中引入不良偏见或违反伦理的内容。如果发现问题,要有机制及时召回或修正标准模型,就像产品召回一样,保障标准质量。
6. 未来展望
展望未来十年,随着自动驾驶迈向更高等级,车辆、基础设施和云端将形成一个高度智能协同的交通系统,标准化工作也将随之演变为一个持续的协商进化过程。在这个过程中,人类与AI将形成良性的协同共治关系:人类负责制定宏观目标和价值取向(如安全至上、绿色优先等),AI负责在具体技术层面实现目标、优化细节。标准将不再是冰冷缓慢的约束,而成为系统智慧的一部分,几乎“与时俱进”地优化。或许有一天,标准更新将像今天软件升级一样频繁而自然,公众也习以为常。一辆自动驾驶汽车可以在夜间自动下载“新版交通规则补丁”,第二天在更安全高效的策略下运行,而乘客几乎无感知。
值得注意的是,中国在这场变革中具有独特优势。一方面,中国政府对标准化和智能交通都高度重视,有能力推动跨部门的数据共享和制度创新;另一方面,中国企业在自动驾驶和人工智能领域投入巨大,积累了丰富的数据和场景,可为智能标准化提供燃料。中国还有庞大的交通应用市场,可以让新模式迅速落地迭代。因此,中国有望成为智能标准化的先行者,在国际上率先形成自动驾驶标准动态适配的实践范例,进而在全球标准舞台赢得更大话语权。
然而,我们也必须清醒地认识到挑战依然存在。AI能力虽强,但并非完美,无论是算法偏见还是黑箱风险都需警惕。让AI参与标准制定,更要确保透明、公正和可控。因此,“放权”给AI的同时也要“设防”,建立一整套监督约束机制,正如前文讨论的人类意图监督和外部审计。只有做到赋能而不失控,自治而不背离,才能真正实现标准化模式的安全进化。
总之,面向未来,自动驾驶标准化将走上一条人机结合的新道路。在这条道路上,数据与知识将持续涌现,标准将不再是固化的终点,而是动态演化的过程。我们需要以开放的心态迎接这一变化,以严谨的态度管理这一变化。相信在不久的将来,智慧交通领域的标准将如同生命体般生生不息地成长,成为保障交通安全和效率的“活法规”。中国有机会亦有能力引领这一趋势,为世界提供“中国方案”。让我们拭目以待一个标准与AI深度融合的崭新时代早日到来。
参考文献:[1] Debouk R. Overview of the second edition of iso 26262: Functional safety—road vehicles[J]. Journal of System Safety, 2019, 55(1): 13-21.
[2] Chai Z, Nie T, Becker J. Autonomous driving changes the future[M]. Springer, 2021.
[3] 郭荣斌, 朱永东, 朱凯男, 等. 车路协同 C-V2X 关键技术演进[J]. 第十五届中国智能交通年会论文集. 深圳, 2020: 584-596.
[4] Duan Y, Tang F, Wu K. DIKWP International Evaluation Standards for Artificial Intelligence[J].
[5] Liu Y, Wang W, Wang W, et al. Purpose-driven evaluation of operation and maintenance efficiency and safety based on DIKWP[J]. Sustainability, 2023, 15(17): 13083.
[6] Huynh R, Ip M, Chang J, et al. Expert-led didactic versus self-directed audiovisual training of confocal laser endomicroscopy in evaluation of mucosal barrier defects[J]. Endoscopy international open, 2018, 6(01): E115-E122.
[7] Safety A T. National Transportation Safety Board[EB/OL].(2008)
[8] Duan Y. A DIKWP-Based Artificial Consciousness Model[J].
[9] Hogan A, Blomqvist E, Cochez M, et al. Knowledge graphs[J]. ACM Computing Surveys (Csur), 2021, 54(4): 1-37.
[10] Smiley A. Behavioral adaptation, safety, and intelligent transportation systems[J]. Transportation Research Record, 2000, 1724(1): 47-51.
An Examination of AI "Capacity Expansion" and "Empowerment" from the Perspective of Sovereign Artificial Intelligence
Yucong Duan 1
(1. School of Computer Science and Technology, Hainan University, Haikou 570228, China)
Abstract:The development of autonomous driving technology poses significant challenges to the traditional expert-driven standardization model, which suffers from subjectivity, long update cycles, and inadequate adaptability. In response, this paper proposes a novel standardization mechanism based on the Data-Information-Knowledge-Wisdom-Purpose (DIKWP) networked semantic space. Taking autonomous driving as an application context, the paper systematically outlines the evolution from human-expert-defined standards toward autonomous semantic-driven standardization by AI systems. The paper critically evaluates the limitations inherent in traditional standardization practices and introduces the theoretical foundation and advantages of the DIKWP model. It argues that the DIKWP model enables the transformation of standards from subjective human definitions to data-driven semantic reasoning, enhancing objectivity and dynamic adaptability. Through detailed case analyses of obstacle recognition and following distance standards in autonomous driving, the paper illustrates concretely how standard semantics transition from human-defined to AI-derived. It further introduces an AI-centric standard lifecycle management mechanism and offers recommendations and visions for future intelligent standardization infrastructure development, organizational structure adjustment, legislative improvements, and policy guidance. Ultimately, the paper demonstrates that this innovative standardization mechanism significantly enhances the adaptability and safety of autonomous driving systems while promoting a more flexible and objective evolution of the standardization framework itself.
Keywords: Autonomous Driving; Standardization Mechanism; DIKWP Model; Semantic Space; Dynamic Adaptation; Artificial Intelligence;
(责任编辑:XXX)
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-5-21 10:58
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社