The news is by your side.

相对于服务器,人工智能数据中心的存储机会很小:Bernstein By Investing.com

18


Investing.com——根据 Bernstein 的说法,与服务器相比,人工智能数据中心的存储机会仍然有限,特别是因为 LLM(大型语言模型)需要的存储要少得多。

在最近与 Lambda 前基础设施副总裁 David Hall 举行的网络研讨会上,Bernstein 收集了有关人工智能云市场趋势的见解。

据说 Hall 估计存储成本仅占“模型训练 GPU 集群成本的 8-12%”,这强化了 Bernstein 的观点,即存储在人工智能基础设施中的作用将小于服务器。

该公司表示,虽然由于数据集较大,专注于图像和视频的模型需要更高的存储空间,但人工智能数据中心的整体存储需求仍然远远落后于服务器等其他组件。

伯恩斯坦还指出,选择存储提供商需要平衡功能与成本。

他们解释说,Lambda 根据客户需求选择与 DDN、Vast 和 WEKA 等提供商合作,同时绕过 NetApp (NASDAQ:)、Dell (NYSE:) 和 Pure Storage (NYSE:) 的解决方案,并引用了更多内容其他地方的综合功能。

据称,霍尔在讨论中还谈到了 GPU 的寿命和升级问题。

Bernstein 表示,如今 GPU 的使用寿命约为“7-9 年”,这意味着即使完全折旧的芯片仍然可以提供价值。

Hall 指出,与 Nvidia 的 Hopper 相比,新型 Blackwell GPU 的性能提升“60-200%,价格上涨 30-40%”,但并非所有用例都需要最新技术——许多任务都可以使用老一代 GPU 来执行GPU,例如 Ampere 或 P 系列型号。

Bernstein 表示,网络研讨会进一步强调了 Nvidia(纳斯达克:)通过 CUDA 和 CuDNN 在软件层的主导地位,这是人工智能领域的关键差异化因素。

尽管拥有定制 GPU 的新兴初创公司可能会蚕食 Nvidia 的市场份额,但该公司表示,该软件仍然是成功的关键。

他们指出,软件层将是决定 GPU 竞争格局的“最重要的组成部分”。





关键词: