温贺的博客分享 http://blog.sciencenet.cn/u/wenhe716 安全工程领域学术与杂谈

博文

用大语言模型控制水箱液位:一次关于AI与工程控制的真实检验

已有 685 次阅读 2026-4-10 19:41 |系统分类:观点评述

目前,大语言模型(LLM)迅速从能聊天走向能决策。它们可以写代码、分析数据,甚至在某些场景下展现出类似人类的推理能力。但一个更本质、也更严肃的问题逐渐浮现:

·        如果AI真的这么聪明,它能否直接控制现实世界的工程系统?

例如,一个最经典、最基础的控制问题——水箱液位控制。

这听起来简单,但却是整个过程工业控制的缩影。从化工反应器到能源系统,本质上都依赖类似的闭环控制机制。带着这个问题,我们设计并开展了一项实验: 不是讨论“AI可以做什么,而是实测——AI在控制系统中究竟能做到什么程度。

 

一、从语言模型走向控制系统

在这项研究中,我们构建了一个完整的实验平台,将三种完全不同的系统连接在一起:

1.       MATLAB/Simulink:负责物理系统建模与控制计算

2.       Python:作为中间通信桥梁

3.       LLaMa大语言模型:作为决策单元

整个系统形成了一个闭环:水箱状态 → AI判断控制指令系统响应再反馈给AI

为了系统性评估,我们设计了四种控制方式:

1.       传统固定参数PID控制

2.       自动整定PID控制

3.       完全由LLM直接控制

4.       LLM辅助调参的混合控制(LLM–PID

问题非常直接:

AI,是替代控制器,还是辅助控制器?

 

二、一个关键发现:LLM不能直接控制系统

实验结果非常明确,甚至可以说有些反直觉。当我们让大语言模型直接控制水箱时,系统完全无法稳定。

水位始终无法接近目标值,最终形成约8.5米的稳态误差。换句话说,AI虽然知道应该让水位上升,但它并不能持续、稳定、精确地完成这一过程。

这一结果揭示了一个本质问题:语言模型并不是为连续动态控制设计的。

它缺乏三个关键能力:

1.       数值稳定性(无法精确调节连续变量)

2.       状态记忆(无法持续跟踪系统演化)

3.       时间一致性(决策在不同时间不稳定)

因此,在闭环控制这一高度依赖精确反馈与连续调节的场景中,LLM并不能替代传统控制器。

 

三、但LLM可以成为优秀的工程师

然而,当我们改变思路,让AI不再直接控制系统,而是去调节控制器参数时,结果发生了显著变化。

LLM–PID混合控制模式下:

1.       上升时间显著缩短

2.       超调降低至约2%

3.       稳态误差接近于零

整体性能优于传统PID和自动整定PID

这说明:AI并不适合作为执行者,但非常适合作为决策者

换句话说:

LLM更像一个工程师,而不是一个控制器。

它擅长理解趋势、判断方向、提出调整建议,但不适合直接生成连续控制信号。

 

四、真正的挑战:当系统出错时

如果说正常工况下的表现令人鼓舞,那么在故障条件下,问题才真正显现。

我们引入了两类典型工业问题:

1. 传感器偏差(Bias

当测量值突然偏高时,所有控制器(包括AI)都会被误导

系统最终稳定在错误的物理状态(约8米),因为控制器始终在追踪错误的测量值

没有任何一个控制策略能够识别这一问题。

2. 传感器漂移(Drift

更极端的情况是传感器逐渐漂移。

在这种情况下,所有控制系统最终都会将水箱放空,并且无法恢复。

特别值得注意的是,LLM–PID控制器在后期出现了剧烈波动,表现出明显的不稳定行为。

这一结果非常关键:

AI并不会自动提升系统的安全性。

在某些情况下,它甚至会放大问题。

 

五、这项研究真正回答了什么?

这项工作的价值,并不在于证明“AI更好,而在于澄清了三个关键认知。

第一,LLM无法替代控制理论

控制系统本质是一个数学问题,而LLM本质是一个语言问题。

两者的核心机制完全不同:

1.       控制系统依赖连续反馈与数值稳定

2.       LLM依赖概率生成与语义推理

因此,它们不能直接互换。

 

第二,AI的正确位置是监督层

最有效的架构是:AI(高层决策) + 控制器(底层执行)

这与现实工业系统高度一致:

1.       工程师负责决策与调参

2.       控制器负责执行与稳定

LLM恰好可以扮演数字工程师的角色。

 

第三,AI并不具备安全意识

在所有故障场景中,AI与传统控制器一样:

1.       无法识别错误数据

2.       无法区分真实与虚假状态

3.       无法主动纠正系统偏差

这说明:

AI智能并不等同于安全

 

六、一个更深层的问题:AI真的理解系统吗?

从实验结果来看,大语言模型可以:

1.       描述系统

2.       推测趋势

3.       给出合理建议

但它并不能真正理解物理系统。

它所做的,本质上是:

基于经验的语言推理,而非基于物理的状态认知。

 

七、AI进入工业的正确路径

这项研究最终指向一个非常清晰的结论:

我们不应该让AI取代控制系统,而应该让它增强控制系统。

 

不应采用的路径是:

1.       AI直接控制过程

2.       用语言模型替代控制器

而更合理的方向是:

1.       AI进行参数调优

2.       AI进行异常解释

3.       AI辅助安全决策

 

八、结语

这项实验回答了一个看似简单的问题,但其意义远不止于一个水箱系统。

它揭示了:AI在工程系统中的边界在哪里。

在这个意义上,我们或许可以用一句话总结:

大语言模型不是控制器,而是工程师。

 

本文基于作者以下论文改写:

Wen, H., Roberts, J., Zaidi, A., & McLeod, A. (2026). An Experiment of Using a Large Language Model to Control a Water Tank System. Computers & Chemical Engineering, 109656. https://doi.org/10.1016/J.COMPCHEMENG.2026.109656 



https://wap.sciencenet.cn/blog-3523098-1529835.html

上一篇:AI越强,我们越该不信它?
收藏 IP: 139.102.67.*| 热度|

1 许培扬

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-4-12 19:12

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部