Anthropic 泄露的文件揭示新的人工智能模型带来网络安全风险


泄露的文件暴露了 Anthropic 新人工智能模型的担忧

据《财富》杂志报道,Anthropic 的内部文件被泄露,披露了名为“Claude Mythos”的新一代人工智能模型的详细信息。此次泄漏的原因是 Anthropic 内容管理系统配置中的人为错误。安全研究人员发现,该公司在可公开访问的数据湖中留下了近 3,000 项未发布的资产。其中包括图像、PDF、音频文件和博客文章草稿。

也许更令人担忧的是,这些文件表明 Claude Mythos 已经处于测试阶段。材料称,Anthropic 认为这种新模式“带来了前所未有的网络安全风险”。据报道,该公司在博客文章草稿中表示,该系统“目前在网络能力方面远远领先于任何其他人工智能模型”。他们警告说,这可能会导致模型利用漏洞的速度远远快于防御者的响应速度。

Anthropic的谨慎态度和过去的事件

由于这些潜在风险,Anthropic 计划了谨慎的推出策略。他们希望首先向网络安全防御组织提供早期访问权限。这将使防御者在加强其系统抵御人工智能驱动的攻击方面占据先机。这种担忧也并非毫无根据。 Anthropic 此前曾报道称,一个中国国家资助的组织利用 Claude Code 渗透到了约 30 个组织,包括科技公司和政府机构。

泄露的文件还提到计划在英国乡村的一座 18 世纪庄园举行一场仅限受邀人士参加的首席执行官峰会。 Anthropic 首席执行官 Dario Amodei 将在那里接待欧洲商界领袖,讨论人工智能的采用并展示未发布的 Claude 模型功能。

行业反应及竞争格局

该消息在社交媒体平台X上传开后,埃隆·马斯克毫不犹豫地发表了评论。他写道“严重令人不安”,该帖子很快获得了数万次浏览和点赞。马斯克有一种评论竞争对手负面新闻的模式,尤其是那些他不同意的新闻。 Anthropic 由前 OpenAI 员工创立,马斯克一直公开批评 OpenAI 和更广泛的人工智能行业的安全方法。

与此同时,马斯克自己的人工智能公司 xAI 最近推出了名为“SuperGrok Lite”的新付费订阅套餐,每月 10 美元。他们对 Grok 的免费用户进行了限制,以促使他们转向付费计划。该公司提供多种订阅选项,包括每月 30 美元的 SuperGrok、每月 300 美元的 SuperGrok Heavy 和每月 30 美元的 Grok Business。

我认为这种情况凸显了人工智能行业快速发展与安全问题之间的紧张关系。当公司竞相开发更强大的模型时,安全考虑有时会退居二线。这些文件被意外公开的事实表明,即使是基本的安全实践也可能被忽视。

CMS 配置中的人为错误提醒我们,技术系统的安全性取决于管理它们的人员。公开访问数千个未发布的资产似乎是一个基本的监督。这让你想知道这些快速发展的人工智能公司可能还存在哪些其他安全漏洞。

我感兴趣的是不同的公司如何应对这些挑战。 Anthropic 的新模式似乎采取了更为谨慎的路线,而其他公司可能会更积极地推进。但话又说回来,泄密本身表明他们的内部流程可能并不像他们希望我们相信的那么严格。

业界的反应也很能说明问题。马斯克的快速评论表明这个领域的竞争已经变得多么激烈。每个人都在观察其他人,准备指出缺陷或失误。它创造了一个透明度可能受到影响的环境,因为公司担心给竞争对手提供弹药。

我想知道我们对这些人工智能模型的功能和风险知之甚少。如果这些信息被意外泄露,还有哪些其他重要细节被隐藏?当技术进步如此之快时,我们如何平衡创新与适当的保障措施?



关键词:

Anthropic泄露的文件揭示新的人工智能模型带来网络安全风险
Comments (0)
Add Comment