思科近日发布了基于102.4 Tbps Silicon One G300交换芯片的新一代AI数据中心网络平台,旨在应对企业、新兴云服务商、服务提供商和主权云运营商在电力、成本和运营限制下部署大规模AI训练与推理集群的需求。该系统包括Nexus 9000和Cisco 8000系列,提供固定和模块化以太网配置,并引入了全液冷选项,以提升能效和网络性能。
思科表示,液冷设计结合高密度光学器件,可实现接近70%的能效提升,同时通过优化网络利用率,支持更高的机架功率密度和更快的AI任务处理速度。此外,思科扩展了Nexus One管理平台,增加了统一管理平面,简化了跨本地和云环境的AI结构部署与运营。增强功能包括任务感知可观测性,将网络遥测与GPU工作负载关联,以及即将与Splunk原生集成,以适应合规敏感和主权部署场景。
关键组件包括Silicon One G300交换芯片,专为大规模AI集群设计,支持训练、推理和代理工作负载,与非优化方案相比,网络利用率最高提升33%,任务完成时间加快28%。Nexus 9000和Cisco 8000系统提供风冷和全液冷配置,以应对极端功率和热管理需求。先进光学器件支持1.6T OSFP模块和800G线性可插拔光学器件(LPO),将光学模块功耗降低高达50%,整体交换机功耗减少约30%。扩展的P200产品组合基于Silicon One P200,增强了横向扩展、数据中心互连(DCI)和核心路由能力。
思科的Silicon One战略体现了从离散ASIC向统一、可编程芯片组合的转变,可扩展到AI后端网络、数据中心结构、DCI和核心路由等领域。G300将这一战略延伸至AI后端,网络行为直接影响GPU利用率、任务完成时间和集群经济性。功能如完全共享数据包缓冲和集成遥测,表明思科将网络视为AI计算堆栈中性能管理的确定性组件,而非单纯传输层。
战略上,Silicon One支持长期基础设施投资,通过高可编程性和部署后升级,适应新兴AI流量模式和光学速度变化,无需全面硬件更换。结合Nexus One集成,思科采用垂直集成方法,连接芯片、系统、光学器件和软件,同时将以太网定位为开放、标准的AI互连替代方案。
思科新闻稿中引述:
“随着AI采用超越超大规模云提供商并扩展到企业、新云和主权环境,网络架构正成为性能、成本和可持续性的决定性约束。思科的方法——结合高性能芯片、液冷系统、先进光学器件和集成运营——直接针对AI基础设施的下一阶段,其中最大化GPU利用率、提高能效和简化运营对于从大规模AI中实现真实经济价值至关重要。” – Matt Eastwood, IDC企业基础设施和数据中心组高级副总裁
“Silicon One G300代表了网络芯片的变革性飞跃,针对大规模AI集群的需求进行了精细调整。通过显著提升网络利用率,每小时生成更多GPU令牌。AI网络在重塑AI数据中心的经济性和性能预期方面至关重要。后端横向扩展网络将迅速转向1.6T,并成为推动以太网数据中心交换机市场年规模超过1000亿美元的关键驱动力。” – Alan Weckel, 650 Group创始人兼技术分析师
“网络一直是扩展AI的基本约束。思科已成为推进高速、高效以太网解决方案的重要参与者,而102.4T Silicon One G300是这一进展的明确证明。在此规模下,网络直接决定了多少AI计算能被实际利用。” – Dylan Patel, SemiAnalysis创始人、CEO兼首席分析师









