|
目前,大语言模型(LLM)迅速从“能聊天”走向“能决策”。它们可以写代码、分析数据,甚至在某些场景下展现出类似人类的推理能力。但一个更本质、也更严肃的问题逐渐浮现:
· 如果AI真的这么“聪明”,它能否直接控制现实世界的工程系统?
例如,一个最经典、最基础的控制问题——水箱液位控制。
这听起来简单,但却是整个过程工业控制的缩影。从化工反应器到能源系统,本质上都依赖类似的闭环控制机制。带着这个问题,我们设计并开展了一项实验: 不是讨论“AI可以做什么”,而是实测——AI在控制系统中究竟能做到什么程度。
一、从“语言模型”走向“控制系统”
在这项研究中,我们构建了一个完整的实验平台,将三种完全不同的系统连接在一起:
1. MATLAB/Simulink:负责物理系统建模与控制计算
2. Python:作为中间通信桥梁
3. LLaMa大语言模型:作为“决策单元”
整个系统形成了一个闭环:水箱状态 → AI判断 → 控制指令 → 系统响应 → 再反馈给AI。
为了系统性评估,我们设计了四种控制方式:
1. 传统固定参数PID控制
2. 自动整定PID控制
3. 完全由LLM直接控制
4. LLM辅助调参的混合控制(LLM–PID)
问题非常直接:
AI,是替代控制器,还是辅助控制器?
二、一个关键发现:LLM不能直接控制系统
实验结果非常明确,甚至可以说有些“反直觉”。当我们让大语言模型直接控制水箱时,系统完全无法稳定。
水位始终无法接近目标值,最终形成约8.5米的稳态误差。换句话说,AI虽然“知道”应该让水位上升,但它并不能持续、稳定、精确地完成这一过程。
这一结果揭示了一个本质问题:语言模型并不是为连续动态控制设计的。
它缺乏三个关键能力:
1. 数值稳定性(无法精确调节连续变量)
2. 状态记忆(无法持续跟踪系统演化)
3. 时间一致性(决策在不同时间不稳定)
因此,在闭环控制这一高度依赖精确反馈与连续调节的场景中,LLM并不能替代传统控制器。
三、但LLM可以成为“优秀的工程师”
然而,当我们改变思路,让AI不再直接控制系统,而是去调节控制器参数时,结果发生了显著变化。
在LLM–PID混合控制模式下:
1. 上升时间显著缩短
2. 超调降低至约2%
3. 稳态误差接近于零
整体性能优于传统PID和自动整定PID。
这说明:AI并不适合作为“执行者”,但非常适合作为“决策者”。
换句话说:
LLM更像一个工程师,而不是一个控制器。
它擅长理解趋势、判断方向、提出调整建议,但不适合直接生成连续控制信号。
四、真正的挑战:当系统出错时
如果说正常工况下的表现令人鼓舞,那么在故障条件下,问题才真正显现。
我们引入了两类典型工业问题:
1. 传感器偏差(Bias)
当测量值突然偏高时,所有控制器(包括AI)都会“被误导”。
系统最终稳定在错误的物理状态(约8米),因为控制器始终在追踪“错误的测量值”。
没有任何一个控制策略能够识别这一问题。
2. 传感器漂移(Drift)
更极端的情况是传感器逐渐漂移。
在这种情况下,所有控制系统最终都会将水箱放空,并且无法恢复。
特别值得注意的是,LLM–PID控制器在后期出现了剧烈波动,表现出明显的不稳定行为。
这一结果非常关键:
AI并不会自动提升系统的安全性。
在某些情况下,它甚至会放大问题。
五、这项研究真正回答了什么?
这项工作的价值,并不在于证明“AI更好”,而在于澄清了三个关键认知。
第一,LLM无法替代控制理论
控制系统本质是一个数学问题,而LLM本质是一个语言问题。
两者的核心机制完全不同:
1. 控制系统依赖连续反馈与数值稳定
2. LLM依赖概率生成与语义推理
因此,它们不能直接互换。
第二,AI的正确位置是“监督层”
最有效的架构是:AI(高层决策) + 控制器(底层执行)
这与现实工业系统高度一致:
1. 工程师负责决策与调参
2. 控制器负责执行与稳定
LLM恰好可以扮演“数字工程师”的角色。
第三,AI并不具备“安全意识”
在所有故障场景中,AI与传统控制器一样:
1. 无法识别错误数据
2. 无法区分真实与虚假状态
3. 无法主动纠正系统偏差
这说明:
AI的“智能”并不等同于“安全”。
六、一个更深层的问题:AI真的理解系统吗?
从实验结果来看,大语言模型可以:
1. 描述系统
2. 推测趋势
3. 给出合理建议
但它并不能真正“理解”物理系统。
它所做的,本质上是:
基于经验的语言推理,而非基于物理的状态认知。
七、AI进入工业的正确路径
这项研究最终指向一个非常清晰的结论:
我们不应该让AI取代控制系统,而应该让它增强控制系统。
不应采用的路径是:
1. 用AI直接控制过程
2. 用语言模型替代控制器
而更合理的方向是:
1. 用AI进行参数调优
2. 用AI进行异常解释
3. 用AI辅助安全决策
八、结语
这项实验回答了一个看似简单的问题,但其意义远不止于一个水箱系统。
它揭示了:AI在工程系统中的边界在哪里。
在这个意义上,我们或许可以用一句话总结:
大语言模型不是控制器,而是工程师。
本文基于作者以下论文改写:
Wen, H., Roberts, J., Zaidi, A., & McLeod, A. (2026). An Experiment of Using a Large Language Model to Control a Water Tank System. Computers & Chemical Engineering, 109656. https://doi.org/10.1016/J.COMPCHEMENG.2026.109656
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-4-12 19:12
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社