维度网讯,腾讯混元于2026年4月29日宣布开源手机端离线翻译模型Hy-MT1.5-1.8B-1.25bit,将支持33种语言的翻译大模型压缩至440MB,用户下载后无需联网即可在手机本地运行。据腾讯混元官方声明,该模型“翻译质量优于谷歌翻译”。模型同时登陆GitHub和Hugging Face开源平台,供开发者直接下载使用。
Hy-MT1.5-1.8B-1.25bit在低比特量化技术上取得关键突破,将此前1.8B版本约1GB的模型体积压缩至440MB,压缩率达到约56%。据腾讯云CSDN开发者社区发布的部署指南,该轻量级翻译模型具备“三高”特性——高性价比(手机端1GB内存即可运行)、高速度(平均0.18秒响应)、高质量(效果媲美千亿级大模型)。CSDN数据显示,该模型在Flores-200测试中达到78%质量分,在多个测试集上接近谷歌Gemini-3.0-Pro的90%水平。
33种语言覆盖中文、英语、日语、法语等常见语种,同时涵盖捷克语、马拉地语、爱沙尼亚语、冰岛语等多种冷门小语种,此外还支持藏语、维吾尔语、蒙古语、哈萨克语等5种中国民族语言与方言的翻译。DoNews报道指出,Hy-MT1.5-1.8B处理50个tokens平均耗时0.18秒,推理速度优于主流商用翻译API,在Flores-200、WMT25及民汉语言测试集中全面优于同等尺寸的开源模型。
该模型支持术语库自定义,用户可在医学、法律、金融、科技等专业场景构建专属术语对照表,确保关键术语翻译一致。模型配备上下文感知翻译与格式保留能力,可处理Srt字幕、网页HTML标签等带格式文本。技术上采用On-Policy Distillation策略,由7B版本作为Teacher模型实时指导1.8B Student模型进行知识蒸馏与预测校正。
腾讯官方信息显示,混元翻译模型此前已在国际机器翻译比赛中获得30项第一,首次开源一周即登顶Hugging Face模型趋势榜首位。目前该模型已应用于腾讯会议、企业微信、QQ浏览器、客服翻译等多个内部业务场景,并支持Arm、高通、Intel、沐曦等多个硬件平台部署。此前在2025年12月30日首次开源的Hy-MT1.5版本基础上,本次1.25bit量化版进一步压缩模型体量,满足低存储空间或弱网环境下手机端离线实时翻译需求。
模型开源后,开发者可通过Hugging Face下载GGUF格式量化模型,配合llama.cpp或Ollama框架一键运行,无需单独安装Python、PyTorch或其他依赖库。针对Arm架构芯片(如高通骁龙移动平台)的优化使该模型可在主流中高端安卓手机及iPhone上流畅运行。腾讯混元团队指出,该模型从端侧离线翻译场景切入,在隐私保护需求愈加强烈的当前环境下,可为用户提供无需上云的本地化翻译方案,避免敏感文本经云端传输带来的数据安全风险。
本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com










