Meta与英伟达宣布深化多年多代合作伙伴关系,共同扩展AI基础设施,计划在全球数据中心部署数百万个Blackwell和Rubin GPU,同时采用英伟达CPU和Spectrum-X网络。该协议涵盖本地和云环境,支持Meta在大规模AI训练和推理方面的长期发展,两家公司将协同设计CPU、GPU、网络和软件,以优化Meta的个性化、推荐和生成式AI工作负载。
Meta将建设超大规模数据中心,优化模型训练和生产推理。部署包括基于英伟达GB300的系统,并将英伟达Spectrum-X以太网交换机集成到Meta的Facebook开放交换系统平台中。Meta还采用了英伟达机密计算技术用于WhatsApp的私有处理,在保护用户数据的同时启用AI功能,并计划扩展到更多服务。
基础设施扩展还包括英伟达基于Arm的Grace CPU,标志着首次大规模纯Grace部署。Meta报告称,通过硬件-软件联合优化,其数据中心应用的每瓦性能得到提升。合作伙伴正在开发下一代Vera CPU,目标是在2027年实现大规模部署,工程团队正在进行深度协同设计,以加速Meta的下一代AI模型。
英伟达创始人兼首席执行官黄仁勋表示:“没有人在Meta的规模上部署AI——将前沿研究与工业规模基础设施相结合,为数十亿用户提供全球最大的个性化和推荐系统。”
分析指出,Meta与英伟达的合作体现了全栈标准化战略,通过集成GB300系统、Grace CPU和Spectrum-X以太网,减少训练和推理集群的复杂性,提升软件优化和网络效率。在AI基础设施扩展背景下,这种协同设计有助于优化每瓦性能,降低数据中心总拥有成本,支持从GPU到CPU的垂直集成AI工厂模型。








