谷歌推出新一代开放翻译模型TranslateGemma:体积小、效率高,支持手机端运行
1月16日,据报道,谷歌于昨日正式发布了基于Gemma 3架构的开放翻译模型系列——TranslateGemma。该系列提供4B、12B和27B三种参数规模,支持涵盖中文、西班牙语、印地语等在内的55种核心语言的翻译任务,同时保留多模态能力,可在不额外调优的情况下处理图像内文字翻译。目前模型已在Kaggle、Hugging Face等平台开放下载,旨在为研究者和开发者提供更高效、更轻量的翻译解决方案。
在性能表现上,TranslateGemma展现出显著的效率优势。谷歌基于WMT24++基准的测试结果显示,12B版本在翻译质量上超越了参数量为其两倍多的Gemma 3 27B基线模型,这意味着仅需消耗一半左右的算力资源即可获得质量更高、延迟更低的翻译结果。而最小的4B模型则与12B基线模型性能相当,特别适合在手机、边缘设备等资源受限的环境中部署,使端侧高效翻译成为可能。
这一性能突破得益于谷歌采用的“两阶段微调”训练工艺。首先通过混合Gemini生成的高质量合成数据与人工翻译数据进行监督微调;随后引入强化学习阶段,借助MetricX-QE等奖励模型引导模型生成更自然、更贴合语境的译文。除已验证的55种核心语言外,TranslateGemma的训练还覆盖了近500种语言,为学术界开展濒危语言研究提供了技术基础。
在部署适配方面,该系列模型针对不同场景进行了专门优化。4B模型面向移动端与边缘设备,追求极致的轻量化与能效;12B模型适用于消费级笔记本电脑,可在本地提供研究级性能;27B模型则瞄准对翻译质量有极致要求的场景,可运行于单张H100 GPU或云端TPU上。