特里尔·迪基
2024年8月29日 15:10
CoreWeave 成为首家提供 NVIDIA H200 Tensor Core GPU 的云提供商,提升了 AI 基础设施的性能和效率。
据美通社报道,AI Hyperscaler™ 公司 CoreWeave 宣布其开创性举措,成为首家向市场推出 NVIDIA H200 Tensor Core GPU 的云提供商。这一发展标志着 AI 基础设施发展的重要里程碑,有望提高生成式 AI 应用程序的性能和效率。
人工智能基础设施的进步
NVIDIA H200 Tensor Core GPU 旨在突破 AI 功能的界限,拥有 4.8 TB/s 内存带宽和 141 GB GPU 内存容量。与之前的 H100 GPU 相比,这些规格可使推理性能提高 1.9 倍。CoreWeave 通过将 H200 GPU 与英特尔第五代 Xeon CPU(Emerald Rapids)和 3200Gbps 的 NVIDIA Quantum-2 InfiniBand 网络集成在一起,充分利用了这些进步。该组合部署在具有多达 42,000 个 GPU 和加速存储解决方案的集群中,大大减少了训练生成式 AI 模型所需的时间和成本。
CoreWeave 的任务控制平台
CoreWeave 的任务控制平台在管理 AI 基础设施方面发挥着关键作用。它通过软件自动化提供高可靠性和弹性,从而简化了 AI 部署和维护的复杂性。该平台具有先进的系统验证流程、主动的机群健康检查和广泛的监控功能,可确保客户最大程度地减少停机时间并降低总拥有成本。
CoreWeave 首席执行官兼联合创始人 Michael Intrator 表示:“CoreWeave 致力于突破 AI 开发的界限。通过与 NVIDIA 的合作,我们能够通过 NVIDIA H200 GPU 提供高性能、可扩展且具有弹性的基础设施,使客户能够以前所未有的效率处理复杂的 AI 模型。”
扩展数据中心运营
为了满足对其先进基础设施服务日益增长的需求,CoreWeave 正在迅速扩大其数据中心运营。自 2024 年初以来,该公司已完成 9 个新数据中心的建设,另有 11 个正在建设中。到今年年底,CoreWeave 预计将在全球拥有 28 个数据中心,并计划在 2025 年再增加 10 个。
行业影响
CoreWeave 快速部署 NVIDIA 技术,确保客户能够获得用于训练和运行生成式 AI 大型语言模型的最新进展。NVIDIA 超大规模和 HPC 副总裁 Ian Buck 强调了此次合作的重要性,他表示:“借助 NVLink 和 NVSwitch 以及其增强的内存功能,H200 旨在加速最苛刻的 AI 任务。与由 Mission Control 提供支持的 CoreWeave 平台搭配使用时,H200 可为客户提供先进的 AI 基础设施,这将成为整个行业创新的支柱。”
关于 CoreWeave
CoreWeave 是 AI Hyperscaler™,提供尖端软件云平台,为下一波 AI 提供动力。自 2017 年以来,CoreWeave 在美国和欧洲运营的数据中心数量不断增加。该公司被公认为《时代》杂志 100 强最具影响力的公司之一,并在 2024 年《福布斯》云 100 强榜单中名列前茅。如需了解更多信息,请访问 www.coreweave.com。
图片来源:Shutterstock
(标签翻译)人工智能(t)加密(t)区块链(t)新闻
关键词:AI,crypto,blockchain,news