路易莎·克劳福德(Luisa Crawford)
7月18日,2025年03:23
NVIDIA推出了全面的安全配方,以增强代理AI系统的安全性和合规性,以应对及时注入和数据泄漏等风险。
对大型语言模型(LLM)对电源代理系统的越来越依赖促使NVIDIA引入了一个强大的安全框架,旨在解决与自动AI应用程序相关的无数风险。根据NVIDIA的说法,该框架称为AI安全配方,旨在将AI系统固定在诸如目标未对准,迅速注射和减少人类监督之类的问题上。
了解对AI安全的需求
随着企业的灵活性和成本效益越来越多地部署LLM,管理相关风险的需求变得至关重要。迅速注射攻击,数据泄漏和其他安全漏洞的潜力需要采取全面的AI安全方法。 NVIDIA的安全配方提供了一种结构化方法来增强内容的适度,安全性和整体系统的弹性。
AI安全配方的组件
NVIDIA的安全配方包含了几个关键组件,以确保AI系统既值得信赖又符合企业和监管标准。其中包括:
- 评估技术: 针对业务政策和风险阈值测试和测量AI模型的工具。
- 端到端AI安全软件堆栈: 核心组件能够在整个AI生命周期中持续监视和执行安全政策。
- 值得信赖的数据合规性: 访问开放许可的数据集以构建透明和可靠的AI系统。
- 风险缓解策略: 解决内容审核和安全性的技术,防止及时注射攻击并确保内容完整性。
实施和利益
AI安全配方旨在在AI生命周期的各个阶段实施,从建筑阶段的模型评估和对齐方式到部署期间的安全检查。 NVIDIA的NEMO框架和其他工具的使用使组织能够采用最先进的培训技术,从而加强AI系统,以防止对抗性提示和越狱尝试。
通过采用此安全框架,企业可以改善其AI系统的内容安全性和产品安全性,NVIDIA报告的内容安全性提高了6%,安全弹性提高了7%。
行业采用和影响
领先的网络安全和人工智能安全公司已经将NVIDIA的安全构件集成到其产品中。例如,Active Fence使用NVIDIA的护栏来实时AI相互作用安全,而Cisco AI Defense和CrowdStrike Falcon Cloud Security将Nemo的生命周期学习融合在一起,以增强模型安全性。
这些集成表明了行业对安全开放模型的承诺,从而确保企业可以负责任地利用代理AI技术。
图像来源:Shutterstock
(tagstotranslate)AI(T)加密(T)区块链(T)新闻
关键词: