2026 年 2 月 2 日星期一,华盛顿,从飞机上看到五角大楼。
朱莉娅·德玛丽·尼金森/美联社
隐藏标题
切换标题
朱莉娅·德玛丽·尼金森/美联社
OpenAI 首席执行官 Sam Altman 表示,在 Anthropic 与五角大楼的不和不断升级的情况下,他同意竞争对手 Anthropic 设定的限制军队使用人工智能模型的“红线”。

美国国防部给 Anthropic 的最后期限是美国东部时间今天下午 5 点 01 分,取消对其人工智能模型 Claude 用于国内大规模监视或完全自主武器的限制。五角大楼表示不打算以这些方式使用人工智能,但要求人工智能公司允许其模型“用于所有合法目的”。
国防部官员表示,如果 Anthropic 不遵守规定,它可能会失去与美国军方价值高达 2 亿美元的合同。

政府还威胁要援引朝鲜战争时期的《国防生产法》(DPA),迫使 Anthropic 允许使用其工具,同时警告称,它将给 Anthropic 贴上“供应链风险”的标签,并可能将其从利润丰厚的政府合同中列入黑名单。
通过介入 Anthropic 和五角大楼之间的对峙,如果 Anthropic 兑现取消合同的威胁,奥特曼可能会使五角大楼更换 Anthropic 的努力变得复杂。 OpenAI 还与 Google、xAI 和 Anthropic 签订了国防部合同,但 Anthropic 是第一个获准在机密系统上使用的公司。
“我个人认为五角大楼不应该威胁 DPA 来对付这些公司,”奥特曼在周五早上接受 CNBC 采访时表示。他表示,他认为公司与军方合作非常重要,“只要遵守法律保护”以及“我们与 Anthropic 共同遵守的以及其他公司也独立同意的少数红线”。
奥尔特曼补充道:“尽管我与 Anthropic 存在诸多差异,但我主要信任他们作为一家公司,而且我认为他们确实关心安全,而且我很高兴他们一直在支持我们的战士。” “我不确定这会走向何方。”
据一位未获授权公开发言的知情人士透露,在周四晚间发送给员工的内部说明中,Altman 表示,OpenAI 正在寻求与五角大楼谈判达成协议,将其模型部署在机密系统中,但不包括在美国用于监视用途或在未经人类批准的情况下为自主武器提供动力。这 华尔街日报 首先向工作人员报告了奥特曼的说明。
国防部没有回应对奥特曼的言论发表评论的请求。
近几个月来,人工智能公司是否可以对政府使用其技术的方式进行限制,已成为 Anthropic 和特朗普政府之间的一个主要分歧点。
周四,Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 表示,五角大楼对其合同的威胁不会让该公司做出让步。他在一份冗长的声明中写道:“出于良心,我们不能同意他们的要求。”
“Anthropic 明白,做出军事决策的是战争部,而不是私营公司。我们从未对特定的军事行动提出反对意见,也没有试图限制我们的技术在特定领域的使用。 特别指定 他使用五角大楼重新命名的“战争部”绰号说道。但是,他补充说,国内大规模监视和完全自主武器的用途“完全超出了当今技术安全可靠的范围”。
五角大楼负责研究和工程的副部长埃米尔·迈克尔 (Emil Michael) 在 X 上发帖回击,指责阿莫迪撒谎并有“上帝情结”。
迈克尔写道:“他只想试图亲自控制美国军队,并且可以将我们国家的安全置于危险之中。”他写道:“@DeptofWar 将始终遵守法律,但不会屈从于任何一家营利性科技公司的一时兴起。”
迈克尔在接受哥伦比亚广播公司新闻采访时表示,联邦法律和五角大楼政策已经禁止将人工智能用于国内大规模监视和自主武器。”
“在某种程度上,你必须相信你的军队会做正确的事情,”他说。
独立专家表示,这种僵局在五角大楼承包领域极不寻常。
华盛顿智库战略与国际研究中心工业基础中心主任杰里·麦金表示:“这肯定是不同的。”他指出,五角大楼承包商通常不会告诉国防部如何使用他们的产品和服务,“因为否则你将就每份合同的用例进行谈判,这是不合理的期望。”
与此同时,麦金指出,人工智能是一项新的且基本上未经测试的技术。 “这是一场非常不寻常、非常公开的斗争,”他说。 “我认为这反映了人工智能的本质。”
关键词: