The news is by your side.

人工智能管理工具对国家安全构成威胁

16


通过免费更新随时了解情况

作者为AI Now Institute首席人工智能科学家

人工智能已经在战场上得到应用。加速采用已经在望。今年,Meta、Anthropic 和 OpenAI 均宣布其 AI 基础模型可供美国国家安全部门使用。人工智能战争是有争议和广泛批评的。但一组更阴险的人工智能用例已经悄然融入美国军队。

乍一看,人工智能模型所执行的任务似乎微不足道。他们帮助沟通、编码、解决 IT 问题和数据处理。问题是,即使是平庸的应用程序也会带来风险。它们部署的便捷性可能会损害民用和国防基础设施的安全。

以美国非洲司令部为例,该司令部是美国国防部的作战司令部之一,该司令部已明确表示使用 OpenAI 工具进行“数据处理的统一分析”。

此类管理任务可以纳入关键任务决策。然而,正如反复演示所表明的那样,人工智能工具不断地制造输出(称为幻觉)并引入新的漏洞。它们的使用可能会导致错误的累积。由于美国非洲司令部是一支作战部队,随着时间的推移,小错误可能会导致造成平民伤害和战术错误的决策。

USAfricom 并不孤单。今年,美国空军和太空部队推出了一款生成式人工智能聊天机器人,称为非机密互联网协议生成预训练变压器(NIPRGPT)。它可以“回答问题并协助完成信件、背景文件和代码等任务”。与此同时,海军开发了一种对话式人工智能技术支持工具模型,称为阿米莉亚(Amelia)。

军事组织声称人工智能模型可以提高效率、准确性和可扩展性,从而证明其使用人工智能模型的合理性。事实上,它们的采购和采用表明人们对所带来的风险缺乏认识。

这些风险包括对手毒害模型训练所用的数据集,使他们能够在使用某些触发关键字时破坏结果,甚至在所谓的“安全”系统上也是如此。对手还可以将幻觉武器化。

尽管如此,美国军事组织尚未解决或保证他们打算如何保护关键的国防基础设施。

缺乏针对目的的适应性所带来的安全风险与故意攻击一样多,甚至更多。人工智能系统的本质是根据历史数据的统计和概率相关性提供结果,而不是事实证据、推理或“因果关系”。以代码生成和 IT 任务为例,康奈尔大学的研究人员去年发现 OpenAI 的 ChatGPT、GitHub Copilot 和 Amazon CodeWhisperer 生成正确代码的概率分别为 65.2%、46.3% 和 31.1%。

尽管人工智能公司向我们保证他们正在努力改进,但不可否认的是,当前的错误率对于需要精度、准确度和安全性的应用程序来说太高了。对工具的过度依赖和信任也可能导致用户忽视他们的错误。

这就引出了一个问题:如何允许军事组织轻松采购人工智能并实施模型?

一个答案来自这样一个事实:它们似乎被视为 IT 基础设施的延伸,而实际上它们可能被用作可以改变关键任务结果的分析工具。这种将人工智能的使用归类为基础设施的能力,绕过了评估其是否适合关键任务目的的适当采购渠道,应该让我们停下来。

为了追求潜在的未来效率,军事机构使用人工智能管理工具会带来真正的风险。这是一种他们所声称的利益无法证明的权衡。



关键词: