AI可以设计病毒、毒素
科学家们正在讨论是否限制生物人工智能软件以抵御威胁。
很难想象一只蜗牛能致人死亡,但有一种芋螺(鸡心螺)海洋软体动物,却具备致命毒性。芋的毒液中含有多种小分子蛋白,统称为芋螺毒素,其中部分毒素能够阻断神经系统的离子通道,而且目前没有可用抗毒血清。
芋螺毒素拥有数十万种结构类型,绝大多数对人体无害,甚至具备药用价值。例如,已有一款慢性疼痛治疗药物就是从芋螺毒素中研发而来。但在部分国家,针对高危芋螺毒素的专项研究受到严格管控。
2024年,中国科学家发布一项研究:利用人工智能设计芋螺毒素。此事在国际各界引发争议。《自然》杂志看到一封发给人工智能与生物技术私人讨论组的邮件,美国一名政府资深工作人员将这项研究标记为潜在生物安全风险。该工作人员因担心职业影响要求匿名,他特别指出:这款设计芋螺毒素的AI,基于美国科学家开发的开源蛋白质大模型构建,风险隐患值得警惕。
(配图说明:海底织锦芋螺近景实拍。织锦芋螺是典型剧毒芋螺种类之一。)
该研究通讯作者之一、重庆大学计算化学家薛伟伟向《自然》回应:外界担忧并无必要。
团队开展此项研究的初衷完全是药物研发,并无任何恶意目的。实验室测试已经筛选出多款具有潜在治疗价值的芋螺毒素。虽然AI工具存在被滥用的可能性,但研发初衷并非制造有害蛋白。此外,即便AI设计出毒素分子,要真正合成制备,仍需要极高专业门槛与精密设备支持。其他科研人员也表示,这项研究实际安全风险极低。
这一事件折射出一个愈发严峻的全球隐患:生物领域AI工具快速普及。尽管这类技术初衷是研发新药、造福社会,但同时也降低了人为制造新型生物威胁的门槛。
从AlphaFold开始,生物AI革命让科研人员只需轻点按键,就能定制设计杀灭超级细菌的专属蛋白、人工病毒;通用大模型还能轻易教会普通人实验室合成技术。人们不禁担忧:AI是否会加速更强毒素、致命病毒及生物武器的研发进程?
20余名科学家与政策研究者受访后均认为:AI带来的生物安全威胁真实且严峻。
瑞士苏黎世大学结构生物学家 Martin Pacesa 表示:理论上,如今借助AI完全可以研发出蓖麻毒素级别的致命毒物,并且几乎无法被检测到,这也是我彻夜担心的事。
但业内对于如何管控风险仍存在巨大分歧。一部分人呼吁限制生物AI研发,另一部分则担心过度管制会拖累医学与生命科学进步。
2024年诺贝尔化学奖得主、华盛顿大学计算生物物理学家 David Baker 表示:一直以来我们都认为,这项技术利远大于弊。但随着AI能力不断增强,如何平衡风险与收益,将成为必须持续思考的重要课题。
也有观点认为,与其强行限制软件、试图从源头阻止滥用,不如把重点放在事后检测与防御。丹麦科技大学蛋白质设计专家 Timothy Jenkins 直言:现在再堵源头已经为时已晚。
AI 生物武器:最坏情况会怎样
约翰霍普金斯大学AI生物安全访问学者 James Black 指出,目前主要存在两大风险隐患:
第一,民间业余实验室人员可借助AI聊天机器人,自学制造、投放炭疽等经典已知生物毒素。
第二,国家层面或资金雄厚的恐怖组织,可结合专业生物软件与大模型,从零设计全新定制生物武器。
(配图说明:两名身着全套防护服人员对公园长椅进行现场封锁、搭建法医勘查帐篷。2018年英国曾发生神经毒剂生物袭击事件。
研究人员普遍认为,AI设计的大流行病病毒是潜在最大威胁。
最易实现的途径,是对现有病毒(如新冠、流感)进行基因改造,使其具备更强免疫逃逸能力、更高传播性。纽约福特汉姆大学生物安全法学教授 Doni Bloomfield 表示:原本用于病毒监测、疫苗设计的AI演化预测工具,完全可能被反向滥用。
除此之外,AI也可能设计出全新未知病原体,难以检测、难以防治。2025年一篇预印本论文已利用AI设计出全新病毒基因组,其中约5%在实验室可成功存活;不过该研究仅针对细菌病毒,并非人类致病病毒。
看似惊悚,但美国国家科学院、工程院、医学院2025年发布报告给出理性现实评估:
目前仍存在多重天然壁垒,AI难以凭空造出可引发大流行的高危病原体。
核心阻碍有两点:
一是高质量数据缺失——尚无足够基因序列数据,能精准关联病毒毒力、传播能力等关键性状,AI无法可靠预测改造后果;
二是实验室合成与活体测试门槛极高,AI只能设计图纸,无法解决实际培育、致病性验证的难题。
还有科学家提出:自然界本身就充满天然病毒与毒素,根本没必要依赖AI。加州斯坦福大学计算生物学家 Brian Hie 表示:无需AI,依靠传统随机诱变技术,也能培育出高致病菌株。
David Baker 也补充:如果想大规模制造灾难,根本不需要复杂蛋白质设计技术。
不过该报告同时承认:人工设计毒素已具备现实可行性,只是合成与投放仍是最大难题。
这类AI定制新型毒素因从未被人类认知,极难临床检出,更适用于暗杀等个体袭击场景。Timothy Jenkins 认为:现有公开AI工具,已经足以被居心不良之人利用。
马萨诸塞州剑桥非营利机构SecureBio AI负责人 Seth Donoughe 表示:最大风险是AI大幅拉高普通人的生物专业能力。
他团队2025年2月预印本实验显示:毫无生物专业背景的普通人,借助顶尖大模型,在病毒实验方案排错、实验室机器人代码编写等任务上,水平可达甚至超越生物学博士。
另有初步研究发现:部分智能AI代理可自主操控生物软件,定向增强病毒致病能力。
但同期另一篇剑桥科研非营利机构预印本提出不同结论:普通人借助大模型,在DNA操作、病毒制备等实操任务上,并不比只查普通网络资料的人更强。
也就是说,当前AI带来的能力提升仍有限,尚不足以轻松制造生物武器,但未来极有可能突破这一边界。
Donoughe 坦言:AI在所有相关任务上都在快速变强,好事更容易做成,坏事也一样更容易实现。
筛查与防线
多数科研人员认为,防范AI生物武器,最可行路径是后端合成环节筛查。
绝大多数人工基因设计研究,都需要向基因合成公司订购DNA/RNA序列。
国际基因合成联盟已有行业自律规则:对客户订单进行毒素、致病基因序列筛查。
但2025年微软团队研究发现:AI可轻易绕过现有筛查系统。
微软首席科学官 Eric Horvitz 团队利用开源蛋白设计工具,对72种高危毒素、病毒蛋白进行同源重构,重新设计出7.6万组人工同源基因序列。
这些新序列结构与原版高危蛋白高度一致、毒性保留,但基因编码序列差异足够大,可绕过四家主流基因公司筛查系统。
实验结果显示:约四分之一最优伪装序列可成功逃逸;四家厂商更新筛查算法后,逃逸率降至仅3%。
后续研究还发现:将基因拆分为仅25个核苷酸的短片段,更难被筛查识别;但短片段拼接成完整基因难度极大。
该团队刻意未公开高危设计细节,仅对专业科研人员开放查阅。
反观中国团队的芋螺毒素研究,已完整公开AI设计序列。《自然》将论文中45条序列录入主流生物信息比对系统BLAST,结果仅5条被匹配标注为芋螺毒素;另一开源筛查工具也只检出少量匹配。
另有现实隐患:即便AI重构毒素序列躲过筛查,部分仍会丧失原有毒性。微软后续跟进实验证实:简单蛋白尚能保留功能,但酶类复杂分子基本失效。这也说明通过AI伪装制造致命毒素,技术门槛依然很高。
基因合成企业Twist Bioscience生物安全负责人 James Diggans 表示:现有筛查体系仍具备较强防护效力,即便借助AI伪装,实际滥用难度依然很大;但新一代AI模型可能突破当前防护,风险仍在上升。
目前业内正在研发基于蛋白结构、功能的智能筛查技术。David Baker还建议建立全球基因合成订单统一备案库,但行业尚未普及。
政策层面:美国2025年行政令拟强制科研经费项目使用合规筛查基因企业;英、欧盟、新西兰也在考虑出台强制标准;绝大多数国家仍无硬性规定。
中国基因合成市场占全球30%以上,目前政府倡导企业主动筛查,尚未立法强制;国内对外出口订单审核严于国内民用订单。
瑞士国际生物安全倡议专家 Tessa Alexanian 坦言:目前全球仍有大量基因合成商家可随意订购毒素基因,毫无拦截。
此外,桌面小型DNA合成设备快速发展,未来可自主合成长基因片段,进一步增加管控难度。
AI模型的安全护栏
除后端筛查,另一思路是给生物AI加装安全围栏、准入限制。
David Baker 团队发布蛋白设计工具前,都会提前做风险评估,并联合近200名科学家发布负责任生物设计原则,依靠行业自律约束。
OpenAI等通用大模型厂商已设置安全机制,拒绝提供生化武器等有害实操步骤。
科研人员呼吁:专业生物AI也应照搬这类安全护栏。
已有模型做出尝试:如Evo2基因组大模型训练时,刻意剔除人类致病病毒基因,使其无法设计、预测致病病毒序列。
但安全护栏并非牢不可破。研究显示近90%普通人仍能从大模型套取高危生物信息;印度曾有人利用ChatGPT咨询蓖麻毒素制作方法、策划恐怖袭击。OpenAI回应称相关信息本就公开可查。
更严重的是,已有研究借助通用AI代理,成功诱导Evo2生成新冠、HIV新型突变毒株;利用公开病毒数据微调模型,也能恢复其致病设计能力。当前文件内容过长,豆包只阅读了前 41%。
转载本文请联系原作者获取授权,同时请注明本文来自孙学军科学网博客。
链接地址:https://wap.sciencenet.cn/blog-41174-1534722.html?mobile=1
收藏