预训练、强化学习、基础设施,全部推倒重建;从正式启动训练到上线,用了不到三个月。4月23日,腾讯混元Hy3 preview大模型正式发布并全面开源,以总参数295B、激活参数仅21B的混合专家(MoE)架构,在代码能力上实现SWE-Bench基准测试从53%跃升至74.4%的跨越式提升。
当大模型参数规模向万亿攀升,AI正从被动唤起走向主动规划。4月23日,腾讯混元Hy3 preview大模型正式发布并全面开源,不追逐极致参数量,而是聚焦“中等规模模型”优化,着力提升单位智能密度。
基础架构:快慢思考融合的MoE架构
Hy3 preview总参数2950亿,激活参数仅210亿,通过MoE架构让推理过程中仅激活约7%的参数。最大支持256K上下文长度,推理速度达23 tokens/秒,并融合“快慢思考”机制,既能快速响应也能进行深度复杂推理。
研发效率:三个月完成基础设施全面重构
2026年1月底正式启动训练,三个月完成全流程,被内部定义为从“读万卷书”走向“行万里路”的开端。团队推倒重建了预训练、强化学习与基础设施,腾讯首席AI科学家姚顺雨全程主导。
智能体与代码能力:SWE-Bench从53%跃升至74.4%
编程能力是提升最显著的方向——SWE-Bench基准从混元2.0的53%跃至74.4%,提升超40%,在Terminal-Bench 2.0、BrowseComp、WideSearch等多项评测中均取得具有竞争力的结果,智能体能力在ClawEval等基准中表现突出。
性价比与“实用性”
成本大幅下降,API输入最低1.2元/百万tokens,缓存命中价格0.4元/百万tokens,输出最低4元/百万tokens;个人订阅最低月费28元。
此外,主动跳出易被“刷榜”的公开榜单,通过自建题目、最新考试、人工评测、产品众测等方式评估“真实战斗力”,在前沿科学奥赛、IMO、清华大学求真书院数学博资考等中均取得优异成绩。
生态融入:全面开源与多产品落地
模型权重与代码已在GitHub、Hugging Face、ModelScope、GitCode开源。已在元宝、ima、CodeBuddy、WorkBuddy、QQ、QQ浏览器、腾讯文档、腾讯乐享、腾讯地图、腾讯电子签等上线,微信公众号、腾讯新闻、和平精英、腾讯客服等陆续接入。支持OpenClaw、OpenCode、KiloCode等开源智能体产品,并已上架腾讯云大模型服务平台TokenHub。
定义中国国产开源大模型新路线
参数量适中、单位智能密度高、用得起。国产大模型竞争正从单一技术指标比拼,转向模型、产品、工程、生态的全方位协同发展。
构建良性创新生态
DeepSeek和Kimi在4月下旬同周上新后,混元接力开源,在复用与优化对方底层技术上形成技术“你追我赶”,构建良性创新循环。
赋能全场景智能应用
在普通用户交互中,意图理解、长文处理、回复稳定性与拟人化方面均有提升。QQ官方AI助手小Q实现搜资讯、设提醒、拍照解题等。智能体场景是其核心差异化方向,能力体系化,单一Agent任务也涉及推理、长文、指令、对话、代码、工具等多维能力深度协同。
此次Hy3 preview只是阶段性起点,姚顺雨表示获得开源和真实反馈将是提升正式版实用性的关键途径,混元团队正在扩大预训练和强化学习规模以提升智能上限,并且通过产品深度协同设计探索特色模型能力。
