维度网讯,英伟达与谷歌云在4月22日举行的Google Cloud Next 2026大会上宣布深化双方长达十年的战略合作关系,将英伟达加速计算堆栈与谷歌AI超算基础设施全面整合。谷歌云正式扩展其AI超算架构,新增由英伟达Grace Blackwell系统驱动的计算实例,并宣布即将推出基于英伟达Vera Rubin平台的A5X实例,为客户提供从AI实验到大规模部署的统一路径。
谷歌同步发布了名为Virgo Networking的数据中心网络结构,专为超大规模AI工作负载设计。Virgo作为谷歌AI超算的骨干网络,将使Vera Rubin A5X实例能够跨站点扩展至96万个图形处理单元。谷歌已在全球机群中部署超过100万颗英伟达GPU,覆盖H100、H200、B200、GB200、GB300、L4、A100及RTX PRO 6000等当前主流型号,用于支撑内部产品与谷歌云客户服务。
英伟达Omniverse库和开源Isaac Sim机器人仿真框架正式在谷歌云市场上线。开发者可直接在谷歌云环境中构建物理精确的数字孪生,开发自定义机器人仿真管线,在真实部署前完成训练、模拟与验证。英伟达NIM微服务同步部署至Google Enterprise Agent Platform与Google Kubernetes Engine,支持Cosmos Reason 2等模型运行,使客户能够从聊天机器人应用迈向能够自主规划、执行并与物理世界交互的智能体。
双方合作覆盖云、本地及边缘三类部署环境。在云端,Google Enterprise Agent Platform、GKE与DGX Cloud均集成英伟达GPU;在本地与边缘侧,基于英伟达Blackwell的谷歌分布式云将统一平台延伸至客户自有数据中心。英伟达CUDA、cuDNN、Dynamo、NeMo、Nemotron等软件库和框架已与谷歌云服务及参考架构完成集成,Vertex AI、GKE与Cloud Run均提供英伟达GPU的原生自动扩展与可观测性支持。
谷歌云借此合作巩固了其作为中立加速平台的市场定位。客户可在Vertex上调用Gemini模型或英伟达Nemotron开放模型,两类模型均针对英伟达硬件进行了优化。对客户而言,这意味着无需在GPU、调度器和框架之间自行拼接,联合工程设计的整合堆栈已接近交钥匙运营状态。英伟达则借助谷歌云的多租户展示平台,强化其作为默认AI硬件选择的产业地位,并通过与Vertex、GKE和Cloud Run的紧密集成获得对企业工作负载的深度反馈。
本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com










