2026 年 2 月 26 日星期四,纽约的电脑屏幕上显示了 Anthropic 网站的页面和公司的徽标。
帕特里克·西森/美联社
隐藏标题
切换标题
帕特里克·西森/美联社
在 Anthropic 首席执行官拒绝了国防部放松安全限制或将其列入利润丰厚的军事工作黑名单的最后通牒之后,五角大楼即将与世界上最强大的人工智能公司之一 Anthropic 就其人工智能模型的军事用途展开摊牌。
数亿美元的合同和全球一些最先进的人工智能工具的使用权都处于危险之中。以下是关于这场战斗的信息以及可能产生的后果。
五角大楼和人类对于如何在战争中使用人工智能的看法不一致
几个月来,Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 一直坚称,Anthropic 的人工智能模型 Claude 不得用于美国的大规模监视或为完全自主的武器提供动力,例如使用人工智能在未经人类批准的情况下杀死目标的无人机。他将这些用途描述为“完全非法”,并表示它们对公司来说是“明亮的红线”。
五角大楼表示,它不打算使用 Anthropic 的工具进行监视或自主武器。但它表示,像 Anthropic 这样的承包商不应该决定如何使用其技术,并表示包括 Anthropic 在内的人工智能公司需要允许美国政府“用于所有合法目的”使用他们的工具。
“合法性是五角大楼作为最终用户的责任,”一位拒绝透露姓名的五角大楼高级官员本周告诉 NPR。
Anthropic 首席执行官兼联合创始人 Dario Amodei 于 2025 年 1 月 23 日在瑞士达沃斯举行的世界经济论坛上。
马库斯·施赖伯/美联社
隐藏标题
切换标题
马库斯·施赖伯/美联社
周四,阿莫代表示,Anthropic 无法接受五角大楼对其合同条款的最新修改。
这位首席执行官在一份关于僵局的长篇声明中写道:“我深信利用人工智能保卫美国和其他民主国家并击败我们的独裁对手的存在重要性。” “Anthropic 明白,做出军事决策的是战争部,而不是私营公司。我们从未对特定的军事行动提出反对意见,也没有试图限制我们的技术在特定领域的使用。 特别指定 方式,”他说。
“然而,在少数情况下,我们认为人工智能可能会破坏而不是捍卫民主价值观,”阿莫代继续说道。他将国内大规模监视和完全自主武器的用途描述为“完全超出了当今技术安全可靠的范围”。他补充说,这些用途“从未包含在我们与战争部的合同中,我们认为现在不应该包含它们”。
阿莫迪遭到拒绝之际,人类与五角大楼的关系变得越来越激烈。据两位直接了解会议情况(未获授权公开发言)的人士透露,在周二国防部长皮特·赫格斯和阿莫迪举行的一次会议上,赫格斯威胁称,如果该公司不满足政府的要求,他将对其进行惩罚。
2026 年 1 月的资料照片中,国防部长皮特·赫格斯站在五角大楼外。
凯文·沃尔夫/美联社
隐藏标题
切换标题
凯文·沃尔夫/美联社
一位知情人士表示,Hegseth 提出了取消 Anthropic 与国防部签订的 2 亿美元合同的可能性,而五角大楼的一名官员表示,其后果可能包括迫使 Anthropic 允许联邦政府违背其意愿使用其人工智能模型,并将 Anthropic 列入与美国军方合作的黑名单。
阿莫迪周四写道:“这些威胁不会改变我们的立场:我们不能凭良心接受他们的要求。” “但考虑到 Anthropic 的技术为我们的武装部队提供的巨大价值,我们希望他们重新考虑。”
五角大楼给 Anthropic 设定了严格的最后期限
五角大楼发言人肖恩·帕内尔 (Sean Parnell) 周四在 X 上发帖警告称,五角大楼要到周五下午才会采取行动。
帕内尔写道:“他们必须在美国东部时间周五下午 5:01 之前做出决定。否则,我们将终止与 Anthropic 的合作关系,并将其视为陶氏化学公司的供应链风险。”他使用了五角大楼重新命名的“战争部”缩写。
战争部没有兴趣使用人工智能对美国人进行大规模监视(这是非法的),我们也不想使用人工智能开发无需人类参与的自主武器。这种说法是假的,被左翼分子在媒体上兜售。… https://t.co/3pjWZ66aXz
— 肖恩·帕内尔 (@SeanParnellASW) 2026 年 2 月 26 日
Anthropic 周四表示,五角大楼已在一夜之间向该公司发送了新的合同语言,该公司认为,“在阻止克劳德用于大规模监视美国人或全自动武器方面几乎没有取得任何进展。”
声明继续说道:“妥协的新语言与法律术语相结合,允许随意忽视这些保障措施。尽管陶氏最近发表了公开声明,但这些狭隘的保障措施一直是我们几个月来谈判的关键。”
Anthropic 表示已准备好继续谈判,并“致力于确保国防部和美国作战人员的行动连续性”。
什么是“供应链风险”?
新美国安全中心高级研究员杰弗里·格茨 (Geoffrey Gertz) 表示,将“人类”视为供应链风险是不寻常的。他说,这一名称“传统上用于外国对手的技术”,例如中国电信公司华为。
目前尚不清楚五角大楼的这一指定具体影响有多大。这可能意味着其他五角大楼承包商将被禁止在五角大楼的工作中使用 Anthropic 的工具,或者可能根本禁止他们使用 Anthropic 的工具。格茨说,第二起案件将对公司造成特别严重的损害。
与此同时,五角大楼威胁要援引《国防生产法》,迫使 Anthropic 拆除护栏。格茨说,这也将是非凡的一步。 《国防生产法》旨在让政府在特殊情况下控制某些商业部门。他说,“传统上,在真正的紧急危机情况下很少会引发这种情况”。本案的目标大概是利用该法案迫使 Anthropic 放松对其人工智能工具使用的限制。
格茨指出,这两种针对 Anthropic 的威胁似乎有些矛盾:“这是一种有趣的组合,它们都是一种风险,以至于需要将它们踢出所有系统,但又如此重要,以至于无论如何,它们都需要被迫成为系统的一部分,”他说。
无论今天结束时发生什么,这场战斗可能还远未结束
五角大楼与 Anthropic 的合同价值高达 2 亿美元,在该公司 140 亿美元的收入中只占相对较小的一部分。虽然五角大楼与谷歌、OpenAI 和 xAI 等其他人工智能公司签订了类似的合同,但在国防官员认为 Anthropic 是敏感军事应用最先进、最安全的模型后,Anthropic 是第一个获得机密用途的公司。
格茨说,如果合同被简单地取消,那可能就结束了。但他预测,如果五角大楼试图迫使 Anthropic 拆除护栏,或者用更广泛的供应链风险来打击它,那么该公司几乎肯定会做出反击。
格茨说:“当然,如果五角大楼试图让事态升级,我怀疑我们会看到更多的法律斗争。”
NPR 的鲍比·艾林 (Bobby Allyn) 对本报告做出了贡献。
关键词: