英伟达与CoreWeave深化合作CoreWeave将首批部署Vera Rubin芯片
2026-01-31 16:20
收藏

英伟达与云服务提供商CoreWeave宣布扩大长期合作关系,双方签署的新协议将基础设施部署、资本投资和未来计算平台的早期访问紧密结合。

根据协议内容,CoreWeave将成为首批部署英伟达Vera Rubin一代计算平台的云服务商之一,进一步巩固了其在大规模人工智能基础设施领域的重要合作伙伴地位。英伟达还通过直接股权购买方式向CoreWeave提供了20亿美元资金支持,体现了双方合作的深度。

此次合作的核心目标是加速人工智能工厂的建设进程。CoreWeave计划到2030年实现超过5吉瓦的计算容量。英伟达的参与不仅限于提供硬件加速器,还包括协助获取土地、电力资源和物理基础设施。

英伟达创始人兼首席执行官黄仁勋表示:“人工智能正在进入新的发展阶段,并推动着人类历史上最大规模的基础设施建设。”他进一步指出:“CoreWeave在人工智能工厂建设方面拥有专业知识、平台软件和快速的执行能力。我们共同努力,以满足对英伟达人工智能工厂的强烈需求——这是人工智能工业革命的基础。”

双方在基础设施和软件层面的协调也在深化。CoreWeave的云平台堆栈和运营工具将与英伟达的参考架构一起进行测试和验证。CoreWeave联合创始人、董事长兼首席执行官Michael Intrator表示:“从一开始,我们的合作就基于一个核心理念:只有当软件、基础设施和运营协同设计时,人工智能才能取得成功。”

CoreWeave预计将在其数据中心部署多代英伟达计算平台,包括早期采用Rubin平台、Vera CPU和BlueField存储系统。这种多代部署策略显示,英伟达将CoreWeave视为全栈解决方案的试验平台,而非仅仅测试单个组件。

Vera CPU将作为独立选项提供,这反映了英伟达有意解决随着代理人工智能工作负载增加而日益凸显的中央处理器限制问题。这些处理器采用定制的Arm架构设计,具有高核心数量、大容量一致性内存和高带宽互连特性。

黄仁勋通过社交媒体平台表示:“我们将首次提供Vera CPU。Vera是一款性能卓越的中央处理器。我们将把Vera CPU作为基础设施的独立组成部分提供。用户不仅可以在英伟达图形处理器上运行计算堆栈,现在还可以在需要中央处理器工作负载的任何地方,在英伟达中央处理器上运行计算堆栈。”

这次合作反映了当前人工智能市场的两个发展趋势。服务器中央处理器正在成为供应链中的关键环节,特别是在代理驱动型应用场景中。同时,单独提供高端中央处理器为客户提供了全机架规模系统的替代选择,这可能降低某些部署场景的初始成本。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com