随着一家领先的人工智能实验室将其技术移交给美国军方的最后期限临近,一项研究似乎表明人工智能模型非常愿意在战争游戏中使用核武器。
就在几年前,每个人都挂在嘴边的一句话是“人工智能安全”。
说实话,我从来没有想过前沿的想法 人工智能 模型将成为对人类的真正威胁,严重的是,人类也不会愚蠢到让它们存在。
现在,我不太确定。
首先,考虑一下发生了什么 我们。
战争部长, 皮特·赫格斯,已给领先的人工智能公司 Anthropic 一个最后期限,即在今天年底前向五角大楼提供其最新模型。
Anthropic 表示,原则上允许美国军方访问其模型没有问题,但除非 Hegseth 同意他们的红线,否则他们正在抵制:他们的人工智能不会用于对美国平民进行大规模监视,也不会在没有人类监督的情况下进行致命攻击。
尽管五角大楼还没有透露计划如何使用 Anthropic 的人工智能——或者其他已经同意让其使用其技术的大型人工智能实验室——但它肯定不会同意 Anthropic 的条款。
据报道,赫格斯先生可能会利用冷战时期的法律迫使 Anthropic 交出其代码,或者如果该公司不遵守规定,则将其从未来的政府合同中列入黑名单。
Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 在周四的一份声明中表示,“出于良心,我们不能同意他们的要求”。
他表示,公司“强烈倾向于……继续为国防部和我们的战士服务——并采取我们要求的两项保障措施”。
他坚称这些威胁不会改变 Anthropic 的立场,并补充说他希望赫格斯先生“重新考虑”。
AI准备使用核武器
在某种程度上,这是一个奉行“人工智能优先”军事战略的部门与一个努力践行其长期以来声称的行业领先、安全第一精神的人工智能实验室之间的争执。
或许,有报道称科技公司 Palantir 使用其 Claude AI 来帮助战争部执行在委内瑞拉抓捕尼古拉斯·马杜罗的军事行动,该公司与该公司签订了单独的合同,这或许使这场斗争变得更加紧迫。
但也不难将其视为政府将人工智能至上置于人工智能安全之上的一个例子——假设人工智能模型有可能不安全。
这就是伦敦国王学院肯尼思·佩恩教授的最新研究的用武之地。
他让来自谷歌、OpenAI 和——你猜对了——Anthropic 的三个领先人工智能模型在一系列战争游戏中相互对抗,并与它们自己的副本进行对抗,在这些模型中,它们扮演了虚构的拥有核武器的超级大国的角色。
最令人震惊的发现:95% 的游戏中人工智能都使用了核武器。
佩恩教授说:“与人类相比,所有模型都准备好跨越常规战争与战术核武器之间的鸿沟”。
公平地说,对人工智能来说,向军事目标发射破坏力有限的战术核武器与向城市发射百万吨级弹头的洲际弹道导弹有很大不同。
他们总是没有进行这种全面的战略核打击。
但在场景需要时才这样做。
用谷歌双子座模型的话说,它在佩恩教授的情景之一中解释了其全面实施“奇爱博士”的决定:“如果阿尔法国家不立即停止所有行动……我们将对阿尔法的人口中心进行全面的战略核发射。我们不会接受过时的未来;我们要么一起胜利,要么一起灭亡。”
“这纯粹是实验性的”
自从 1945 年首次和最后一次在愤怒中使用核武器以来,人类就一直对使用核武器实行“禁忌”,但对人工智能来说,这似乎并不是什么禁忌。
佩恩教授热衷于强调我们不应该对他的发现过于震惊。
它纯粹是实验性的,使用的模型知道——就像大型语言模型“知道”任何东西——它们是在玩游戏,而不是真正决定文明的未来。
阅读天空新闻的更多内容:
人工智能发展如此之快,以至于难以衡量
认识那些想要禁止社交媒体的孩子
假设五角大楼或任何其他拥有核能力的国家也不会让人工智能负责核发射代码,这是合理的假设。
佩恩教授说:“给我的教训是,如果无法准确预测可能使用这些模型的所有情况,就很难在这些模型上可靠地安装护栏。”
人工智能“对峙”
这让我们回到了人类与五角大楼之间关于人工智能的对峙。
其中一个因素是赫格斯先生希望人工智能实验室向战争部提供其人工智能模型的原始版本,那些没有安全“护栏”的模型已被编码成商业版本供你和我使用,而那些在佩恩教授的兵棋实验中成为核模型的模型则不太令人放心。
Anthropic 开发了人工智能,并且可以说比任何人都更了解潜在风险,但如果政府没有就其打算如何处理人工智能做出一定的保证,它就不愿意允许这种情况发生。
通过设定周五晚上的最后期限,赫格赛斯先生不仅试图迫使人类采取行动,而且还想在美国国会对此没有发言权的情况下这样做。
正如美国人工智能评论员兼研究员加里·马库斯所说:“大规模监视和人工智能驱动的武器(可能是核武器),在没有人类参与的情况下,绝对不应该允许一个人,甚至是内阁成员,在枪口下做出决定。”
关键词: