当地时间11月3日,亚马逊云服务 (AWS) 和 OpenAI 宣布达成一项价值 380 亿美元的多年战略合作伙伴关系,AWS 将立即为 OpenAI 提供世界一流的基础设施,以运行和扩展其核心人工智能 (AI) 工作负载。受该利好消息影响,亚马逊在11月3日的美股交易中股价上涨4%。

根据这项价值 380 亿美元的新协议(未来七年将持续增长),OpenAI 将使用 AWS 的计算资源,其中包括数十万个最先进的 NVIDIA GPU,并可扩展至数千万个 CPU,从而快速扩展智能体工作负载。AWS 在安全、可靠且大规模地运行大规模 AI 基础设施方面拥有丰富的经验,其集群规模可达 50 万个芯片以上。AWS 在云基础设施领域的领先地位,结合 OpenAI 在生成式 AI 领域的开创性进展,将帮助数百万用户持续从 ChatGPT 中受益。
AWS表示,人工智能技术的飞速发展带来了前所未有的计算能力需求。随着前沿模型提供商不断提升模型的智能水平,客户越来越多地选择 AWS,因为 AWS 能够提供卓越的性能、规模和安全性。作为此次合作的一部分,OpenAI 将立即开始使用 AWS 的计算资源,所有容量计划在 2026 年底前部署完毕,并具备在 2027 年及以后进一步扩展的能力。
AWS为OpenAI 构建的基础设施部署采用了精密的架构设计,旨在最大限度地提高 AI 处理效率和性能。通过 Amazon EC2 UltraServer 在同一网络上对 NVIDIA GPU(包括 GB200 和 GB300)进行集群部署,实现了互联系统间的低延迟性能,使 OpenAI 能够高效运行工作负载并达到最佳性能。这些集群旨在支持各种工作负载,从为 ChatGPT 提供推理服务到训练下一代模型,并可灵活适应 OpenAI 不断变化的需求。
OpenAI联合创始人兼首席执行官Sam Altman表示:“扩展前沿人工智能需要海量、可靠的计算能力。我们与AWS的合作将增强广泛的计算生态系统,为下一个时代提供动力,并将先进的人工智能带给每个人。”
“随着 OpenAI 不断突破人工智能技术的极限,AWS 一流的基础设施将成为其人工智能雄心的坚实后盾,”AWS 首席执行官 Matt Garman 表示。“AWS 提供的优化计算资源覆盖面广、即时可用,充分展现了其在支持 OpenAI 庞大的人工智能工作负载方面所拥有的独特优势。”
AWS称,这一消息延续了两家公司携手合作,致力于为全球企业提供尖端人工智能技术的决心。今年早些时候,OpenAI 的开源模型已在 Amazon Bedrock 上线,为数百万 AWS 用户带来了更多模型选择。OpenAI 已迅速成为 Amazon Bedrock 上最受欢迎的公开模型提供商之一,数千家客户(包括 Bystreet、Comscore、Peloton、Thomson Reuters、Triomics 和 Verana Health)正利用其模型进行智能体工作流程、编码、科学分析、数学问题求解等工作。
据了解,OpenAI在过去12个月内通过风险投资交易虽然筹集了约470亿美元,估值也达到约5000亿美元,但是其自今年以来已经签署了高达约1万亿美元的交易,其中的交易方就包括了之前已经宣布的AMD、英伟达、甲骨文和CoreWeave等。









