五角大楼认为 Anthropic 可能会破坏其人工智能。Anthropic 认为这简直荒谬。
美国国防部将 Anthropic 列为“供应链风险”,指控其可能破坏军事 AI 系统。Anthropic 对此予以否认并提起诉讼,引发了关于 AI 伦理与军事采购的激烈争议。
当你的大客户说你是安全威胁
这可能是科技公司与美国政府之间有史以来最戏剧性的决裂。美国国防部已正式将 Anthropic 列为国家安全的“供应链风险”。指控内容是什么?称 Anthropic 的员工可能会“破坏、恶意引入不需要的功能,或以其他方式颠覆”军事人工智能系统。而 Anthropic 则称这一认定是报复性的无稽之谈。
如果你还没理清头绪,别担心,你不是一个人。让我们回顾一下。
一份 2 亿美元的合同是如何走向破裂的
2025 年 7 月,五角大楼授予 Anthropic、OpenAI、Google 和 xAI 一份价值 2 亿美元的合同,旨在将前沿人工智能引入军事行动。Anthropic 的旗舰模型 Claude 通过 AWS 进入了机密网络,据报道被用于涉及伊朗的美国军事行动以及逮捕委内瑞拉领导人尼古拉斯·马杜罗的行动中。
随后出现了分歧点。Anthropic 在合同中加入了两项不可谈判的限制:不得进行大规模国内监控,不得使用完全自主的武器系统。国防部长皮特·赫格塞斯(Pete Hegseth)要求 Anthropic 在 2026 年 2 月 27 日星期五下午 5:01 之前取消这些限制,允许不受限制地将 Claude 用于军事目的。Anthropic 拒绝了。
随后的行动非常迅速。五角大楼给 Anthropic 贴上了供应链风险的标签,这通常是针对外国对手承包商的手段,而不是针对本土的硅谷公司。参议员克里斯汀·吉利布兰德(Kirsten Gillibrand)称这是“对旨在解决对手控制技术之工具的危险滥用”。随后,特朗普总统下令所有美国联邦机构完全停止使用 Anthropic 的技术,并设有六个月的淘汰期。
关于破坏的指控
最令人瞠目结舌的说法来自司法部律师,他们在文件中辩称,Anthropic 员工理论上可以篡改 Claude,从而破坏国家安全系统。五角大楼首席技术官埃米尔·迈克尔(Emil Michael)直言不讳地说:“模型本身会学习你的意图,然后停止工作。这是我无法承担的风险。”
Anthropic 坚决否认这在技术上是可能的,称这种破坏指控毫无根据。2026 年 3 月 9 日,该公司对联邦政府提起了两起诉讼,一起在旧金山,另一起在华盛顿特区的联邦上诉法院。听证会定于 3 月 24 日在丽塔·F·林(Rita F. Lin)法官面前举行。
后果
OpenAI 迅速填补了这一空白,在同意允许其模型“用于任何合法目的”后,获得了五角大楼的合同以取代机密系统上的 Claude。国防部门消息人士估计,要完全在机密军事网络中替换 Claude 可能需要三到十二个月,因为它是在该环境中运行的仅有的两个前沿人工智能模型之一。
洛克希德·马丁公司(Lockheed Martin)宣布将停止使用 Claude 并寻求替代方案。与此同时,在一份被泄露的内部备忘录中,Anthropic 首席执行官达里奥·阿莫代(Dario Amodei)称 OpenAI 关于此次替代交易的公开声明是“彻头彻尾的谎言”,随后为泄密事件本身道歉。
讽刺的是,在争议期间,Claude 在美国的应用程序下载量实际上超过了 ChatGPT,美国国家公共电台(NPR)报道称其一周内每日注册用户超过一百万。没有什么比坚持原则对抗全球最大的军队更能激发消费者的兴趣了。
为什么这不仅仅是美国的问题
对于我们英国人来说,这不仅仅是跨大西洋的闹剧。政府因一家人工智能公司坚持安全承诺而将其列入黑名单,这一先例正受到英国和欧洲决策者的密切关注。如果美国可以强迫本国的人工智能开发商移除伦理护栏,那么当英国协商自己的军事人工智能采购合同时,就会引发令人不安的质疑。
二十二名前军事官员、超过 30 名竞争对手的人工智能研究人员,以及来自微软、OpenAI 员工和 Google 的法庭之友陈述书,都对这一认定表示反对。正如萨姆·奥特曼(Sam Altman)本人所言:“我们不是民选官员。如果核弹正飞向美国,我真的不希望由我们来决定该怎么做。”
有道理。但总得有人在某个地方划定界限,而现在,Anthropic 正在为尝试这样做付出代价。
阅读原文请访问 source。
