高通 周一宣布将发布全新人工智能加速器芯片,标志着人工智能新竞争 英伟达迄今为止,它在人工智能半导体市场上占据主导地位。
人工智能芯片是高通公司的转变,高通公司迄今为止一直专注于无线连接和移动设备的半导体,而不是大型数据中心。
高通表示,将于 2026 年上市的 AI200 和计划于 2027 年上市的 AI250 都可以装满一个完整的液冷服务器机架。
高通正在与 Nvidia 匹敌 AMD,它们在全机架系统中提供图形处理单元或 GPU,允许多达 72 个芯片充当一台计算机。人工智能实验室需要计算能力来运行最先进的模型。
高通的数据中心芯片基于高通智能手机芯片中的人工智能部件,称为 Hexagon 神经处理单元(NPU)。
高通数据中心和边缘总经理杜尔加·马拉迪 (Durga Malladi) 上周在接受记者采访时表示:“我们首先想在其他领域证明自己,一旦我们在那里建立了自己的实力,我们就很容易在数据中心级别上提升一个档次。”
高通进入数据中心领域标志着增长最快的技术市场的新竞争:新的以人工智能为中心的服务器群的设备。
根据麦肯锡的估计,到 2030 年,近 6.7 万亿美元的资本支出将用于数据中心,其中大部分用于基于人工智能芯片的系统。
该行业一直由 Nvidia 主导,其 GPU 迄今为止占据了 90% 以上的市场份额,其销售额使该公司的市值超过 4.5 万亿美元。 Nvidia 的芯片用于训练 OpenAI 的 GPT,即 ChatGPT 中使用的大型语言模型。
但 OpenAI 等公司一直在寻找替代方案,本月早些时候,这家初创公司宣布计划从第二大 GPU 制造商 AMD 购买芯片,并可能入股该公司。其他公司,例如 谷歌, 亚马逊 和 微软,也在为其云服务开发自己的人工智能加速器。
高通表示,其芯片专注于推理或运行人工智能模型,而不是训练,OpenAI 等实验室正是通过训练来处理 TB 级数据来创建新的人工智能功能。
该芯片制造商表示,其机架规模系统最终将为云服务提供商等客户降低运营成本,并且一个机架使用 160 千瓦的功率,与某些 Nvidia GPU 机架的高功耗相当。
Malladi 表示,高通还将单独销售其人工智能芯片和其他部件,特别是对于喜欢设计自己的机架的超大规模企业等客户。他表示,英伟达或 AMD 等其他人工智能芯片公司甚至可能成为高通部分数据中心部件的客户,例如中央处理器或 CPU。
“我们试图做的是确保我们的客户能够接受所有这些,或者说,‘我要混合搭配,’”马拉迪说。
该公司拒绝评论芯片、卡或机架的价格,以及单个机架中可以安装多少个 NPU。今年5月,高通宣布与沙特阿拉伯Humain建立合作伙伴关系,为该地区的数据中心提供AI推理芯片,该公司将成为高通的客户,承诺部署最多可使用200兆瓦电力的系统。
高通表示,其人工智能芯片在功耗、拥有成本以及处理内存的新方法方面比其他加速器具有优势。该公司表示,其 AI 卡支持 768 GB 内存,高于 Nvidia 和 AMD 的产品。
高通公司设计的一款名为 AI200 的 AI 服务器。
高通
关键词:半导体设备制造,生成人工智能,苹果公司,商业,突发新闻:技术,技术,高通公司,NVIDIA公司,Advanced Micro Devices Inc,Alphabet Class A,亚马逊公司,微软公司,人工智能,商业新闻