随时通知免费更新
只需注册 人工智能 Myft Digest-直接交付到您的收件箱。
作者是欧亚集团全球事务研究所的计划主任
当Openai和Mattel本月初宣布合作伙伴关系时,人们对风险有隐性的认可。用人工智能供电的第一个玩具将不适合13岁以下的儿童。
上周的另一个合作伙伴关系似乎更少。 Openai单独透露,它赢得了第一份五角大楼合同。根据美国国防部的说法,它将试行一项耗资2亿美元的计划,以“开发原型Frontier AI能力,以应对战斗和企业领域的关键国家安全挑战”。
一家主要的科技公司可以开展军事工作,而公众的审查很少体现出转变。实际上,日常应用程序的国家安全应用实际上已成为一个给定的。一些科技公司的叙述充满了他们如何在战争中增压以色列和乌克兰的叙述,因此将其作为新的爱国主义,而没有就首先应该发生的对话进行对话,更不用说如何确保伦理和安全的优先级。
硅谷和五角大楼始终是交织在一起的,但这是Openai迈向军事承包的第一步。该公司一直在拜登政府的校友建立一个国家安全团队,直到去年,它才悄悄地取消了禁止使用其应用程序进行武器开发和“战争”之类的东西。到2024年底,Openai与Anduril合作,由Palmer Luckey领导的Maga Mega-Startup。
自2018年Google工作人员抗议一项名为Maven Project Maven在道德问题上的秘密五角大楼努力以来,Big Tech发生了巨大变化,这导致这家技术巨头让合同到期。现在,Google已经完全修改了其方法。
Google Cloud正在与洛克希德·马丁(Lockheed Martin)合作就生成AI。 Meta也改变了其政策,以便军方可以使用Llama AI。 Big Tech Stalwarts Amazon和Microsoft都参加了。Anthropic与Palantir合作,将Claude带入美军。
很容易想象AI在这里的优势,但是公众视图中缺少的是关于风险的对话。现在有充分记录的AI有时会产生幻觉,或过着自己的生活。专家警告说,从更加结构的层面上讲,消费者技术可能对国家安全用途不够安全。
许多美国人和西欧人都有这种怀疑。我组织最近对美国,英国,法国和德国的调查发现,大多数人在军事AI方面支持更严格的法规。人们担心它可能是由对手武器的,也可能由自己的政府使用来监视公民。
向受访者提供了八个陈述,一半强调了AI对其国家军队的好处,一半强调了风险。在英国,不到一半(43%)表示,AI将帮助其国家的军队改善其工作流程,而绝大多数(80%)表示,这些新技术需要受到更大的监管来保护人们的权利和自由。
在最极端的情况下,使用AI进行战争可能意味着在生死问题中委托有缺陷的算法。这已经在中东发生。
以色列新闻媒体+972杂志在针对加沙的哈马斯领导人时调查了以色列的军事AI,并报道说:“成千上万的巴勒斯坦人(其中大多数是妇女和儿童或不参与战斗的人)被以色列空袭罢工,尤其是在战争的头几周,因为在战争的头几周,由于decisions ai Propisions。
就其本身而言,美国军方已使用AI在中东选择目标,但五角大楼高级官员去年告诉彭博社,它不够可靠,无法自行采取行动。
关于技术巨头与军队合作的意义的公开对话是逾期的。正如前OpenAI研究员Miles Brundage警告说:“ AI公司应该比目前更透明的国家安全,执法和与移民相关的用例和不支持哪些国家/地区/机构,以及如何执行这些规则。”
在世界各地的战争和不稳定时期,公众都在大声疾呼,就军队使用AI的真正含义的对话。他们应该得到一些答案。
关键词: