美国Astera Labs 推出Scorpio X系列320通道交换机,单芯片5.12Tb/s带宽加速AI集群
2026-05-07 10:32
收藏

维度网讯,美国Astera Labs于2026年5月5日在加利福尼亚州圣何塞正式宣布,旗下Scorpio X系列320通道智能光纤交换机开始向超大规模云服务商及AI实验室出货,量产爬坡计划于2026年下半年启动。该系列单颗ASIC集成320条PCIe 6通道,双向带宽达5.12 Tb/s,面向万亿参数大模型训练与代理式推理场景中大集群碎片化通信导致的GPU闲置问题。

Astera Labs首席执行官Jitendra Mohan在官方新闻稿中表示,公司正与客户紧密合作,围绕Scorpio X系列和扩展后的P系列扩大设计导入,投资机架级AI技术以把握即将到来的机遇。

Astera Labs Scorpio graphic

传统PCIe交换机通常仅承担数据通路角色,而Scorpio X系列的核心区别在于引入了内存语义架构。该架构允许GPU和其他AI加速器通过原生的加载/存储指令直接访问整个交换机网络中的共享资源,无需CPU介入即可完成远程数据读写,消除了传统软件协议栈的叠加开销。对于混合专家模型等需要大规模参数路由的推理场景,这一特性有助于缓解因GPU等待数据同步导致的利用率不足。

Scorpio X系列同时搭载了硬件加速的Hypercast组播引擎和网内计算引擎。Hypercast是Astera Labs针对混合专家模型推理场景专门开发的轻量级组播机制,支持可预先配置的组播组,以确定性低延迟方式将数据分发至集群内的各GPU节点,克服了传统组播组容量有限、配置响应慢的瓶颈。网内计算引擎则将all-reduce、all-to-all等聚合操作从GPU卸载到交换机硬件端执行,官方披露集体通信性能可提升最高2倍,直接改善首Token时间和每瓦Token产出等关键指标。

Moor Insights & Strategy副总裁兼首席分析师Matt Kimball指出,当前AI集群的架构预设与实际工作负载之间的错配正成为AI基础设施效率的主要瓶颈。前沿训练和推理工作负载并非连续运行,而是频繁分支、暂停、等待数据或外部调用。交换机引入内存语义和网内计算后,有效弥合了集群设计与工作负载行为之间的差距。Futurum研究总监Brendan Burke进一步量化了该效应:集体IO减少约49%,意味着GPU将更多时间用于实际计算,在超大规模节点上直接转化为更好的每瓦特Token产出率和更快的模型迭代周期。

与Scorpio X系列同步扩展的还有Scorpio P系列PCIe光纤交换机产品线。该系列覆盖32至320通道的多款配置,允许数据中心架构师根据加速器类型和拓扑需求灵活选型。延伸覆盖CXL、以太网、NVLink Fusion和UALink等多种互连协议,可在各类GPU和定制AI芯片平台上统一部署。配套的COSMOS软件平台覆盖光纤交换机、铜缆互连和光学方案的统一管理,提供设备管理、固件更新和实时遥测等功能。Astera Labs将在6月2日至5日于台北举办的Computex 2026展会上展示Scorpio X系列及其PCIe 6光学扩展方案,届时还将进行业界首次PCIe 6光互联演示。

Astera Labs同日公布的2026年第一季度财报显示,季度营收达3.084亿美元,环比增长14%,同比增长93%,其中PCIe 6产品组合收入已占总营收三分之一以上。

本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com