The news is by your side.

NVIDIA 在主要网络安全会议上展示 AI 安全创新

12


路易莎·克劳福德
2024 年 9 月 19 日 10:04

NVIDIA 在 Black Hat USA 和 DEF CON 32 上重点介绍了 AI 安全方面的进步,强调对抗性机器学习和 LLM 安全。




据 NVIDIA 技术博客报道,NVIDIA 最近在两个最负盛名的网络安全会议 Black Hat USA 和 DEF CON 32 上展示了其 AI 安全专业知识。这些活动为 NVIDIA 提供了一个平台,展示其在 AI 安全方面的最新进展,并与更广泛的网络安全社区分享见解。

NVIDIA 参加 2024 年美国黑帽大会

Black Hat USA 大会是全球公认的活动,以尖端安全研究为特色。今年的讨论重点是生成式 AI 工具在安全方面的应用以及 AI 部署的安全性。NVIDIA 网络安全 AI 总监 Bartley Richardson 与 WWT 首席执行官 Jim Kavanaugh 一起发表了主题演讲,重点介绍了 AI 和自动化如何改变网络安全策略。

其他会议还邀请了来自 NVIDIA 及其合作伙伴的专家,讨论 AI 对安全态势和保护 AI 系统技术的革命性影响。AI 安全小组包括 NVIDIA 的 AI 和法律伦理高级总监 Nikki Pope,她与来自 微软 和谷歌。

NVIDIA 软件产品安全副总裁 Daniel Rohrer 在 Trend Micro 主办的一场会议上谈到了保护 AI 数据中心的独特挑战。Black Hat 大会的共识很明确:部署 AI 工具需要采取强有力的安全措施,强调信任边界和访问控制。

NVIDIA 出席 DEF CON 32

DEF CON 是全球最大的黑客大会,大会设有多个村庄,与会者可参与实时黑客挑战。NVIDIA 研究人员为 AI Village 提供支持,举办了热门的现场红队比赛,重点关注大型语言模型 (LLM)。今年的活动包括一项生成式红队挑战,该挑战实时改进了模型安全护栏。

Nikki Pope 发表了关于人工智能系统中算法公平性和安全性的主题演讲。由 DARPA 主办的人工智能网络挑战赛 (AIxCC) 中,红蓝队构建了自主代理来识别和利用代码漏洞。这一举措凸显了人工智能工具加速安全研究的潜力。

对抗性机器学习训练

在 Black Hat 大会上,NVIDIA 和 Dreadnode 进行了为期两天的机器学习 (ML) 培训,涵盖了评估 ML 模型安全风险和实施特定攻击的技术。主题包括规避、提取、评估、反转、中毒和对 LLM 的攻击。参与者在自定进度的实验室中练习执行这些攻击,获得了制定有效防御策略所必需的实践经验。

专注于法学硕士安全

NVIDIA 首席安全架构师 Rich Harang 在 Black Hat 大会上介绍了 LLM 安全性,强调了将 LLM 安全性建立在熟悉的应用程序安全框架中的重要性。演讲重点介绍了与检索增强生成 (RAG) LLM 架构相关的安全问题,这大大扩展了 AI 模型的攻击面。

建议与会者识别和分析信任和安全边界,跟踪数据流,并应用最小特权和输出最小化原则来确保强大的安全性。

实现法学硕士安全评估的民主化

在 DEF CON 上,NVIDIA AI 安全研究员 Leon Derczynski 和 Erick Galinkin 介绍了一款用于 LLM 安全探测的开源工具 garak。Garak 可让从业者快速测试潜在的 LLM 漏洞,从而自动执行部分 LLM 红队测试。该工具支持近 120 种独特的攻击探测,包括 XSS 攻击、即时注入和安全越狱。

Garak 的演讲和演示实验室吸引了众多观众,标志着 LLM 安全定义标准化迈出了重要一步。该工具可在 GitHub 上获取,使研究人员和开发人员能够量化和比较模型对各种攻击的安全性。

概括

NVIDIA 参加 Black Hat USA 和 DEF CON 32 彰显了其对推进 AI 安全的承诺。该公司的贡献为安全社区提供了以安全思维部署 AI 系统的宝贵知识。对于那些对对抗性机器学习感兴趣的人,NVIDIA 通过其深度学习学院提供自定进度的在线课程。

如需进一步了解 NVIDIA 在 AI 和网络安全领域正在进行的工作,请访问 NVIDIA 技术博客。

图片来源:Shutterstock


(标签翻译)人工智能(t)加密(t)区块链(t)新闻



关键词:AI,crypto,blockchain,news