TranslateGemma — Google открыл модели перевода на 55 языков
Google выпустил TranslateGemma — опенсорсные модели для перевода на базе Gemma 3. Три размера, 55 языков, работает на смартфоне
TL;DR: Google выпустил TranslateGemma — семейство опенсорсных моделей для перевода на базе Gemma 3. Три размера: 4B для смартфонов, 12B для ноутбуков, 27B для серверов. 55 языков, включая редкие. Модель в 12B обходит 27B базовую Gemma по качеству перевода.
Google продолжает открывать свои модели. На этот раз — специализированные модели для перевода.
Что это
TranslateGemma — это три модели на базе Gemma 3, заточенные именно под перевод. Размеры: 4B, 12B и 27B параметров.
Самое интересное — 12B модель показывает результаты лучше, чем базовая Gemma 3 27B на бенчмарке MetricX. То есть специализация реально работает, и не нужно гонять монстра на 27 миллиардов параметров, чтобы получить качественный перевод.
Что умеет
Языки: - 55 тщательно протестированных языковых пар - Ещё ~500 дополнительных пар в обучении - Поддержка редких языков, не только «большая тройка»
Мультимодальность: Модели сохранили способности Gemma 3 работать с картинками. Перевод текста на изображениях улучшился без специального обучения — приятный бонус.
Где запускать
Google чётко разложил по полочкам: - 4B — телефоны и edge-устройства - 12B — обычный ноутбук, локальная разработка - 27B — один H100 или облачный TPU
4B версия конкурирует с 12B базовыми моделями. Для мобильных приложений — самое то.
Как обучали
Двухэтапный процесс: 1. Supervised Fine-Tuning — на смеси человеческих переводов и синтетических от Gemini 2. Reinforcement Learning — с наградой от MetricX-QE и AutoMQM
В общем, классическая схема RLHF, но с метриками качества перевода вместо человеческих оценок.
Где взять
Модели уже доступны: - Kaggle - Hugging Face - Vertex AI для облачного деплоя - Gemma Cookbook с примерами использования
Думаю, для разработчиков это полезно. Не всегда хочется гонять запросы через API — то лимиты, то задержки, то приватность данных. А тут можно развернуть свой переводчик локально, причём качество на уровне.
Что ещё почитать
- DeepSeek Engram - память для LLM — ещё один интересный опенсорс подход к улучшению моделей
- GLM-4.7 обновление модели для кодинга — китайцы тоже делают крутые открытые модели
- Devstral 2 — опенсорсная модель от Mistral — ещё один сильный опенсорс игрок