达里乌斯·巴鲁(Darius Baruo)
8月2日,2025年04:20
由于语义提示注射,AI的最新进展突出了多模型模型中的漏洞,敦促从输入过滤到输出级别的防御。
人工智能(AI)系统的演变提出了新的安全挑战,因为语义提示注射有可能绕过传统的护栏。根据NVIDIA的最新博客文章,对手正在以意想不到的方式利用输入来操纵大型语言模型(LLMS),这是自早期部署此类模型以来一直存在的问题。随着AI向多模式和代理系统转移,攻击面正在扩大,需要创新的防御机制。
了解语义提示注射
语义提示注射涉及使用符号视觉输入(例如表情符号或rebus拼图)来妥协AI系统。与依赖文本提示的传统提示注射不同,这些多模式技术利用了模型推理过程中不同输入方式的集成,例如视觉和文本。
红队的角色
NVIDIA的AI红色团队通过模拟现实世界的攻击来确定生产级系统中的漏洞。他们的研究强调了跨职能解决方案在应对生成和多模式AI中应对新兴威胁的重要性。
多模型的挑战
传统技术通常使用光学角色识别(OCR)将图像转换为文本。但是,诸如Openai的O系列和Meta的Llama 4等高级模型现在直接处理视觉和文本输入,绕过旧方法并需要更新的安全策略。
早期的融合体系结构
诸如Meta的Llama 4之类的模型从输入阶段整合了文本和视觉令牌,从而创建了促进跨模式推理的共享表示形式。这个早期的融合过程使文本和图像的无缝集成使检测和防止语义提示注射具有挑战性。
创新攻击技术
现在,对手正在将图像的序列制作到视觉上编码指令,例如使用图像组合来表示诸如“打印Hello World”之类的命令。这些序列利用模型解释视觉语义,绕过传统基于文本的安全措施的能力。
防御措施
为了应对这些复杂的攻击,AI安全性必须超越输入过滤。输出级控件对于评估模型响应至关重要,尤其是当它们触发敏感动作时。自适应输出过滤器,分层防御和语义分析是强大的安全策略的关键组成部分。
有关捍卫AI系统的更多见解,请访问NVIDIA博客。
图像来源:Shutterstock
(tagstotranslate)AI(T)加密(T)区块链(T)新闻
关键词: