托尼·金
2025年6月18日15:16
加州大学伯克利分校的LMARENA利用NVIDIA的GB200 NVL72来增强AI模型评估,这要归功于与Nvidia和Nebius的合作,从而提高了大语言模型的排名。
LMARENA是加州大学伯克利分校的一项研究计划,它在NVIDIA报道的借助NVIDIA的GB200 NVL72系统的帮助下,已大大提高了其评估大语模型(LLMS)的能力。这项合作以及内比乌斯(Nebius)使LMARENA能够完善其模型排名功能,从而提供有关LLMS在特定任务(例如数学,编码和创意写作)中脱颖而出的见解。
用P2L增强模型评估
LMARENA进步的核心在于迅速到达领导者(P2L)模型,该模型收集人的投票以确定各个领域中表现最佳的AI。根据LMARENA的联合创始人和伯克利的博士生Wei-Lin Chiang的说法,该过程涉及将Bradley-Terry系数应用于用户偏好。这有助于确定特定任务的最有效模型,从而为超出一个整体得分的细微理解提供了细微的理解。
Lmarena与NVIDIA DGX Cloud和Nebius AI Cloud的合作对于大规模部署P2L至关重要。 NVIDIA的GB200 NVL72的使用允许在云中进行可扩展的,可扩展的生产AI工作负载。这种合作伙伴关系促进了快速反馈和共同学习的周期,从而增强了P2L和DGX云平台。
技术进步和部署
2月,LMARENA成功地将P2L部署在NVIDIA GB200 NVL72上,由Nebius通过NVIDIA DGX Cloud主持。 NVIDIA和NEBIUS开发的共享沙盒环境促进了这种部署,这使得早期采用者能够有效地测试NVIDIA Blackwell平台。
GB200 NVL72平台集成了36个GRACE CPU和72个Blackwell GPU,提供了高宽带,低延迟性能,并配备了高达30 TB的快速,统一的内存。该基础架构支持要求AI任务并促进有效的资源分配。
开源启用
DGX云团队与Nebius和Lmarena合作,确保了针对GB200 NVL72的开源开发人员的无缝部署流程。这涉及为ARM64和CUDA环境编辑和优化关键的AI框架,例如Pytorch和拥抱面型变压器。
这种全面的支持使开发人员能够在没有兼容性问题的情况下利用最先进的工具,专注于建造产品而不是移植库。该项目显示出令人印象深刻的性能改进,完成培训的速度要比以前的配置要快得多。
要详细了解协作和技术进步,请访问NVIDIA博客。
图像来源:Shutterstock
(tagstotranslate)AI(T)加密(T)区块链(T)新闻
关键词: