谷歌推出新一代开放翻译模型TranslateGemma:体积小、效率高,支持手机端运行

2026-01-16 16:56:19   |   唐薇   |   1466

1月16日,据报道,谷歌于昨日正式发布了基于Gemma 3架构的开放翻译模型系列——TranslateGemma。该系列提供4B、12B和27B三种参数规模,支持涵盖中文、西班牙语、印地语等在内的55种核心语言的翻译任务,同时保留多模态能力,可在不额外调优的情况下处理图像内文字翻译。目前模型已在Kaggle、Hugging Face等平台开放下载,旨在为研究者和开发者提供更高效、更轻量的翻译解决方案。

在性能表现上,TranslateGemma展现出显著的效率优势。谷歌基于WMT24++基准的测试结果显示,12B版本在翻译质量上超越了参数量为其两倍多的Gemma 3 27B基线模型,这意味着仅需消耗一半左右的算力资源即可获得质量更高、延迟更低的翻译结果。而最小的4B模型则与12B基线模型性能相当,特别适合在手机、边缘设备等资源受限的环境中部署,使端侧高效翻译成为可能。

这一性能突破得益于谷歌采用的“两阶段微调”训练工艺。首先通过混合Gemini生成的高质量合成数据与人工翻译数据进行监督微调;随后引入强化学习阶段,借助MetricX-QE等奖励模型引导模型生成更自然、更贴合语境的译文。除已验证的55种核心语言外,TranslateGemma的训练还覆盖了近500种语言,为学术界开展濒危语言研究提供了技术基础。

在部署适配方面,该系列模型针对不同场景进行了专门优化。4B模型面向移动端与边缘设备,追求极致的轻量化与能效;12B模型适用于消费级笔记本电脑,可在本地提供研究级性能;27B模型则瞄准对翻译质量有极致要求的场景,可运行于单张H100 GPU或云端TPU上。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

谷歌推出新一代开放翻译模型TranslateGemma:体积小、效率高,支持手机端运行

2026-01-16 16:56:19 浏览量: 1466 作者: 唐薇

1月16日,据报道,谷歌于昨日正式发布了基于Gemma 3架构的开放翻译模型系列——TranslateGemma。该系列提供4B、12B和27B三种参数规模,支持涵盖中文、西班牙语、印地语等在内的55种核心语言的翻译任务,同时保留多模态能力,可在不额外调优的情况下处理图像内文字翻译。目前模型已在Kaggle、Hugging Face等平台开放下载,旨在为研究者和开发者提供更高效、更轻量的翻译解决方案。

在性能表现上,TranslateGemma展现出显著的效率优势。谷歌基于WMT24++基准的测试结果显示,12B版本在翻译质量上超越了参数量为其两倍多的Gemma 3 27B基线模型,这意味着仅需消耗一半左右的算力资源即可获得质量更高、延迟更低的翻译结果。而最小的4B模型则与12B基线模型性能相当,特别适合在手机、边缘设备等资源受限的环境中部署,使端侧高效翻译成为可能。

这一性能突破得益于谷歌采用的“两阶段微调”训练工艺。首先通过混合Gemini生成的高质量合成数据与人工翻译数据进行监督微调;随后引入强化学习阶段,借助MetricX-QE等奖励模型引导模型生成更自然、更贴合语境的译文。除已验证的55种核心语言外,TranslateGemma的训练还覆盖了近500种语言,为学术界开展濒危语言研究提供了技术基础。

在部署适配方面,该系列模型针对不同场景进行了专门优化。4B模型面向移动端与边缘设备,追求极致的轻量化与能效;12B模型适用于消费级笔记本电脑,可在本地提供研究级性能;27B模型则瞄准对翻译质量有极致要求的场景,可运行于单张H100 GPU或云端TPU上。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号