英伟达发布Nemotron 3 Super开源模型:MoE架构加持,企业级AI推理效率提升五倍
2026-03-13 08:53
收藏

当地时间3月11日,英伟达宣布推出新一代开源大语言模型Nemotron 3 Super。该模型专为企业级多智能体系统设计,采用了全新的混合专家(MoE)架构,在推理吞吐量上实现突破,达到上一代模型的五倍以上。

Nemotron 3 Super的发布标志着英伟达在大模型领域的产品线进一步丰富。与面向通用对话场景的模型不同,Nemotron系列自诞生之初便聚焦企业级应用场景,此次推出的3 Super版本在多智能体协同、高并发推理等企业关键需求上做了针对性优化。其核心架构升级至混合专家(MoE)模式,这一技术路线通过将模型分解为多个“专家”子模块,在推理时仅激活与当前任务相关的部分,从而在不显著增加计算资源的前提下大幅提升处理效率。

据英伟达介绍,基于MoE架构的优化使得Nemotron 3 Super的推理吞吐量提升至上一代产品的五倍以上。这意味着企业在部署大规模AI应用时,能够在相同的硬件条件下处理更多的并发请求,或显著降低响应延迟。对于需要同时运行数十个乃至上百个AI智能体的复杂业务场景,这一性能提升具有实质性的商业价值。

作为开源模型,Nemotron 3 Super的发布也为企业客户提供了更高的定制灵活性。企业可以在其基础之上进行微调和私有化部署,既满足数据安全与合规要求,又能利用英伟达在底层算力上的持续优化。此次发布延续了英伟达在AI领域“硬件+软件+模型”全栈布局的战略思路,进一步巩固其在企业级AI市场的生态位。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com