人工智能可能会给美国在伊朗战争中带来致命优势——但也存在危险科学、气候和科技新闻


忘记科幻小说吧。战争中的人工智能时代已经到来。

以色列在以下领域使用了人工智能系统 加沙 标记潜在目标并帮助确定行动的优先顺序。

据报道,美国军方在其军事行动中使用了 Anthropic 的模型 Claude 从委内瑞拉绑架尼古拉斯·马杜罗的行动

甚至之后 Anthropic与美国政府陷入困境 究竟如何 人工智能 应该在战争中使用,美军显然仍然使用克劳德来攻击 伊朗

伊朗最新消息:特朗普批评斯塔默的英国立场

专家表示,今天飞越德黑兰的导弹极有可能成为人工智能系统的目标。

纽卡斯尔大学政治地理学高级讲师克雷格·琼斯表示:“人工智能正在改变 21 世纪现代战争的性质。它已经和将要产生的影响怎么强调都不为过。”

“这是一个潜在的可怕场景。”

不管可怕与否,似乎已经没有回头路了。如果你想了解美国军方对人工智能的重视,可以从自称战争部长的国防部长皮特·赫格斯今年年初向所有高级军事领导人发送的一份备忘录开始。

赫格斯写道:“我指示战争部通过成为从前到后所有组成部分的‘人工智能优先’作战部队,加速美国军事人工智能的主导地位。”

这不是一个实验,这是一个命令——快速、大规模地采用人工智能。

或者正如赫格斯所说:“速度获胜”。

图像:
美国可能已经在使用人工智能来通知其导弹袭击。图片:美联社/中央通讯社

然而,我们首先想到的并不是这种情况。

是的,某些领域的自主权正在增强。在 乌克兰例如,有些无人机即使在与人类操作员失去联系后也能够继续执行任务。

但我们还没有处于自主杀手机器人在战场上潜行的阶段。

“我们还没有进入终结者时代,”伦敦玛丽女王大学伦理学、技术和社会学教授大卫·莱斯利说。

嵌入人工智能的系统(军事术语中称为“决策支持系统”)是顾问,可以标记目标、对威胁进行排名并建议优先事项。

人工智能系统可以将卫星图像、截获的通信、物流数据和社交媒体流(数千甚至数十万个输入)整合在一起,并以比任何人类团队快得多的速度呈现模式。

他们的想法是,它们有助于拨开战争迷雾,让指挥官将资源集中在最重要的地方,同时可能比疲惫、不知所措、压力重重的人类士兵更准确。

琼斯博士说,这意味着它们不仅仅是一种工具,而且是一种新的决策方式。

“正如我们在自己的生活中看到的那样,人工智能更像是一种基础设施,”他说。 “它内置于系统中。”

“我们有能力收集多年来我们一直在进行的监视。

“但现在人工智能提供了一种稳定性,可以对此采取行动,杀死伊朗领导人,消灭严重的对手和严重的敌人,并以以前从未发现过的不可思议的方式找到他们。”

“一个非常有说服力的工具”

莱斯利教授同意,从军事角度来看,新系统非常强大。

“速度竞赛是推动这一趋势的原因,”他说。 “加快决策周期可以带来杀伤力的军事优势。”

决策支持系统的一个重要特征是人工智能不会按下按钮。人类确实如此。这是有关军事人工智能的争论的核心保证。总是有“一个人在循环中”。

作为 开放人工智能,该公司制造 聊天GPT”,在宣布与五角大楼合作提供人工智能后说道:“我们将有明确的前沿部署 OpenAI 工程师来帮助政府,并有明确的安全和协调研究人员参与其中。

OpenAI 还强调,它已与五角大楼达成协议,其技术不会以跨越三条“红线”的方式使用:大规模国内监视、直接自主武器系统和高风险自动化决策。

但即使有人参与其中,问题仍然存在。

阅读更多:
研究发现人工智能愿意在兵棋推演中“使用核武器”
Claude Opus 4.6:这个人工智能刚刚通过了“自动售货机测试”

美国和以色列的空袭摧毁了伊朗城市的部分地区

当你打仗时,人类真的可以检查人工智能的每一个决定吗?当时间被压缩、信息不完整时,“人为监督”到底意味着什么?

“从技术上讲,人类处于循环之中,”琼斯博士说。

“在我看来,这并不意味着他们足够了解情况,能够拥有有效的决策权并监督到底发生了什么。人工智能……对于人们做出决策来说是一个非常有说服力的工具。”

或者正如莱斯利教授所说:“我们确实面临着潜在的规模化危险……橡皮图章,由于涉及的速度,你没有积极的、关键的人类参与来评估这些系统提出的建议。”

还有人工智能自身的错误问题。

阅读更多:
英国首相证实英国将在塞浦路斯部署“龙”号驱逐舰
伊朗问答:为什么特朗普可以试图宣布速胜

天空新闻的测试发现,如果鸡看起来不像预期的那样,克劳德和 ChatGPT 都无法判断鸡有多少条腿。

更重要的是,人工智能坚持认为它是正确的,即使它明显是错误的。

这个例子来自一篇论文,其中举例说明了数十个类似失败的例子。 “这不是动物腿的一次性例子,”主要作者 Anh Vo 说。

人工智能正在加速发展——但多快才算太快呢?罗兰·曼索普回顾了最新的研究。

“这个问题在各种类型的数据和任务中都是普遍存在的,”Vo 补充道。

原因是人工智能并没有真正以人类的方式看待世界——它们根据过去的数据猜测最有可能发生的事情。

大多数时候,这种统计推理非常有效。世界是可以预测的,概率是有效的。

但有些环境本质上是不可预测且风险很高的。

我们正在可以想象的最严酷的环境下测试这项技术的边界。



关键词:

人工智能可能会给美国在伊朗战争中带来致命优势但也存在危险科学气候和科技新闻
Comments (0)
Add Comment