人工智能实验室 Anthropic 本周宣布,它已经开发出一种强大的新模型,该公司认为可以“重塑网络安全”。该公司表示,其最新型号 Mythos Preview 能够发现“高严重性漏洞,包括每个主要操作系统和网络浏览器中的一些漏洞”。
帕特里克·西森/美联社
隐藏标题
切换标题
帕特里克·西森/美联社
维护广泛使用的网络基础设施的开发人员表示,在过去的几个月里,人工智能模型已经从产生幻觉转变为能够有效地发现软件中的安全缺陷。除其他外,这些软件为操作系统提供动力,并为连接到互联网的事物传输数据。
虽然这些新功能可以帮助开发人员提高软件的安全性,但它们也可能被黑客和民族国家利用,窃取信息和金钱或破坏关键服务。
人工智能网络能力的最新发展于周二发布,人工智能实验室 Anthropic 宣布已开发出一种强大的新模型,该公司认为可以“重塑网络安全”。该公司表示,其最新型号 Mythos Preview 能够发现“高严重性漏洞,包括每个主要操作系统和网络浏览器中的一些漏洞”。不仅如此,该模型更擅长找到利用其发现的漏洞的方法,这意味着恶意行为者可以更有效地实现其目标。
目前,该公司将该模型的访问权限限制在大约 50 家选定的公司和组织中,“以确保世界上最关键软件的安全”。他们将此次合作命名为“Project Glasswing”,以一种具有透明翅膀的蝴蝶命名。
根据公告,Anthropic 表示,滥用的风险非常高,因此没有计划向公众发布此特定模型,但会发布其他相关模型。该公司写道:“我们的最终目标是让我们的用户能够安全地大规模部署 Mythos 级模型。”
不过,安全专家表示,潜在风险针对的是网络安全专业人员,而不是普通人。网络安全公司 Proofpoint 威胁研究副总裁丹尼尔·布莱克福德 (Daniel Blackford) 表示:“我认为普通计算机用户不一定需要从根本上担心这一点。” “他们需要更加担心不要泄露密码,因为这种情况每天都会发生。”
托管开源 Linux 内核的 Linux 基金会首席执行官 Jim Zemlin 表示,Mythos Preview 可能还具有比以前的模型更好的功能来帮助开发人员修复漏洞。内核是一种让硬件与软件对话的接口,Linux 内核为一些使用最广泛的操作系统(包括 Android)以及全球 500 台最强大的超级计算机提供支持。该基金会是 Glasswing 项目的一部分,Zemlin 表示,负责 Linux 内核工作的核心团队(称为维护人员)已经开始试验新模型,以找出最有效的使用方法。
“在人工智能出现之前,这些维护人员已经超负荷工作了,”泽姆林说。 “这只会让他们的生活变得更好。”
甚至在 Mythos Preview 有限发布之前,网络安全社区就已经在努力解决最先进的商用人工智能模型的能力如何。开发人员正在竞相修补黑客用人工智能标记的安全漏洞。安全专家担心,如果这种能力在没有护栏的情况下激增,未来可能会发生什么。
黑客正在使用人工智能来帮助他们发现错误。直到现在还没有起作用
Daniel Stenberg 表示,人工智能模型功能的改进在 2026 年初变得非常明显。他是 cURL 的首席软件开发人员,cURL 是一种已有 30 年历史的开源数据传输工具,广泛用于连接到互联网的事物,包括汽车和医疗设备。这一变化是在 2025 年底发布新的尖端型号之后发生的。
与软件社区的许多人一样,斯坦伯格得到了安全研究人员的帮助,以保持他的软件功能和安全。所谓的“白帽”黑客私下向开发人员标记安全缺陷,作为回报,他们有时会获得奖励资金,称为“错误赏金”,或者通过获得安全缺陷来吹嘘的权利 以自己的名字命名。虽然所有错误都会影响软件的功能,但只有某些错误会出现安全漏洞。
但这个过程从去年开始崩溃。斯坦伯格的团队被虚假报告淹没,他确信这些报告是由人工智能生成的。 “我们全年收到 185 份报告,其中不到 5% 最终是真正与安全相关的问题,”Stenberg 说。
尽管报告数量从 2024 年到 2025 年翻了一番,但 Stenberg 最终发现并修复的安全漏洞却减少了。错误报告变得如此糟糕,以至于 Stenberg 停止为他的 cURL 工具支付错误赏金。
斯坦伯格说,向他提交报告的黑客通常是匿名的,他们不会讨论这些报告是否是通过人工智能做出的。但斯坦伯格表示,人工智能有独特的写作风格。 “它们往往非常详尽和描述性……你会得到一份 400 行的报告,而人类需要 50 行才能呈现出来。”
Stenberg 用于管理安全报告的平台 HackerOne 在 2025 年夏天对黑客进行了调查,发现近 60% 的受访者要么使用人工智能、学习人工智能,要么学习审核人工智能或机器学习系统。
“法学硕士现在已经绕过了人类寻找错误的能力”
今年情况发生了巨大变化。报告数量甚至比 2025 年还要多,但 Stenberg 表示,到目前为止,大多数报告都发现了合法问题。 “几乎所有不好的(报道)现在都消失了。”
他估计大约十分之一的报告是安全漏洞,其余的大部分是真正的错误。进入 2026 年仅三个月,Stenberg 领导的 cURL 团队就发现并修复了比前两年更多的漏洞。
除了外部安全研究人员的报告外,斯坦伯格还自己使用人工智能来发现漏洞。只需单击一下,AI 就标记出了代码中的 100 多个错误,这些错误已经“以近乎神奇的方式”经过了人类和传统代码分析器的多轮审查。
斯坦伯格的经历并不是独一无二的。 维护者 Linux 内核有 见过 错误报告的质量也发生了类似的变化。尼古拉斯·卡利尼 (Nicholas Carlini) 是一位人类学研究科学家,他发现 Linux 内核中的漏洞 使用较旧的人择模型和相对简单的提示。 Carlini 还利用人工智能在另一个已有 20 年历史的开源项目中发现了第一个严重漏洞。
人工智能软件安全公司 Corridor 的首席安全官 Alex Stamos 表示:“法学硕士现在已经绕过了人类发现错误的能力。”随着安全研究报告的发布,安全研究报告的质量不断提高 Anthropic 的型号 Opus 4.5 曾担任雅虎和 Facebook 安全主管的斯塔莫斯表示,去年 11 月。斯塔莫斯说,由于如此多的商业软件都有开源组件,开源项目发生的事情会对互联网产生更广泛的影响。
人工智能可以修补它发现的错误和安全漏洞吗?
斯坦伯格赞赏目前每个人都可以使用的人工智能模型在发现错误方面变得更加有帮助,但他也对未来更强大的模型可能为维护开源软件的开发人员带来什么持谨慎态度。 “这对所有维护人员来说都是超负荷的,他们在很多方面都经常超负荷、人手不足、工资不足、资金不足。”
Stenberg 不是 Glasswing 项目的一部分,他表示许多关键项目,“实际上是互联网基石的东西”都被排除在外。
Anthropic 没有回应 NPR 的置评请求。
但根据他迄今为止的经验,斯坦伯格表示,人工智能并不擅长修复错误和安全漏洞,而是擅长发现它们。
部分原因是错误及其修复都不是一成不变的。与软件开发的许多其他方面一样,进行判断调用比实际编写代码花费更多的时间。 “一旦我们发现了问题并同意这是一个问题,那么实际上解决它并不是很难,也不是很耗时。更重要的是,直到这一步的整个过程都需要时间和精力,”斯坦伯格说。
其他人则有不同的看法。一家名为 HackerOne 的公司目前正在开发一种代理人工智能产品,以更自主地查找和修复漏洞。
人工智能如何影响网络安全攻防拉锯战?
“发现错误并不意味着这些错误就可以被利用,”斯塔莫斯说。 “我们所说的杀伤链的第一部分是发现缺陷。下一步是……(实际上)制造武器。而基础模型不会为你做到这一点。”
基础模型是由 Anthropic、OpenAI 和 Google Deepmind 等最先进的人工智能实验室创建的模型。这些实验室已经设置了防护栏,以防止他们的模型创建可被恶意使用的软件。这些模型是高度专有的,其内部工作原理并不公开。
但一旦公众更容易使用的所谓开放权重模型赶上最先进的人工智能实验室的模型,所有的赌注都会消失。坏人可以复制它们并消除恶意软件的防护。
斯塔莫斯说:“那么我们就遇到了真正的麻烦,因为你不仅可以要求这些模型找到错误,还可以创建可以侵入系统的漏洞代码”。最先进的开放式重量型号比最先进的封闭式重量型号落后不到一年。
斯塔莫斯补充说:“这也表明五角大楼说人择对整个美国构成威胁是多么愚蠢。”五角大楼将 Anthropic 标记为“供应链风险”,因为该公司要求政府不要将其技术用于自主武器和大规模监视。该标签将禁止政府机构和承包商与 Anthropic 合作。 Anthropic 目前正在法庭上对该标签提出争议。
大多数开放重量模型都是由中国公司制造的,美国认为中国是其在人工智能主导地位竞赛中的主要竞争对手。斯塔莫斯表示,通过不公开发布 Mythos 预览版,Anthropic 为软件开发人员以及美国提供了加强防御的时间。
关键词: