Anthropic宣布采用百万颗谷歌TPU,明年将达1GW 算力
2025-10-27 11:56
收藏

虽然近期人工智能技术大厂OpenAI动作频频,已经陆续与英伟达、AMD签下了千亿美元的采购大单,不过另一家人工智能技术厂商Anthropic则计划扩大使用谷歌 Cloud 的TPU。

当地时间10月24日,Anthropic宣布计划将谷歌为AI量身打造的加速器TPU的用量扩充达到100万颗,以提升AI计算资源,持续推进AI研究与产品开发。Anthropic 称这项扩展价值达数百亿美元,预计在2026年带来超过1GW 电力规模的算力。

Anthropic 的计算策略聚焦于多元化构架,除谷歌的TPU 外,还有AWS的Trainium、NVIDIA 的GPU,Anthropic 灵活运用3大芯片平台。

业界估计1GW电力规模的数据中心,成本约为500亿美元,其中大约350亿美元用于计算芯片。相较于竞争对手OpenAI Stargate(星际之门)计划目标建构10GW 电力规模的算力,Anthropic也奋起直追,确保Claude 模型能力持续提升,同时维持与产业各方的合作关系。

值得关注的是,亚马逊是Anthropic的主要训练伙伴与云端供应商,双方持续开发Project Rainier,这是横跨美国多个数据中心、拥有数十万颗AI 芯片的超大型运算丛集,Anthropic强调仍致力于与亚马逊的合作伙伴关系。

Anthropic已为超过30万家企业客户提供服务,其中「大型帐户」(意指每年营收贡献超过10万美元的客户)数量在过去一年成长近7倍。这项扩展有助于Anthropic 满足迅速增加的客户需求。更强大的运算资源将支撑更严谨的各项测试、模型对齐研究,以及大规模、负责任的资源部署。

“Anthropic 与谷歌长期合作,这次最新扩展帮助我们持续成长,提供推进先进AI 所需的算力。”Anthropic首席财务官Krishna Rao 表示,「从《财富》500强到AI 新创公司,我们的客户都依赖Claude 完成最关键的工作,而这次扩充的算力可确保我们在需求呈现指数成长的同时,让模型持续居于产业最前线。”

“Anthropic 选择大幅扩充TPU 使用量,反映出我们团队多年来在TPU 上所见的卓越性能与成本效益。”谷歌 Cloud CEO Thomas Kurian 指出,“我们将持续创新,提升TPU 的效率与产能,进一步拓展我们成熟的AI 加速器产品组合,其中包括第七代Ironwood TPU。”

Anthropic 与谷歌Cloud最初在2023年宣布建立合作伙伴关系,Anthropic 使用谷歌Cloud的AI 基础构架训练模型,并通过谷歌 Cloud 的Vertex AI 平台与谷歌 Cloud Marketplace 向企业提供模型与技术。如今在算力需求激增下,扩大采用Ironwood TPU 在内的AI 加速器。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com