Нейроканал
18 января 2026, 15:48
Ещё один интересный релиз прошедшей недели — серия моделей TranslateGemma от Google
12B-модель обгоняет базовую Gemma 3 27B на бенчмарке WMT24++ т.е. качество выше при вдвое меньшем размере. 4B-версию можно запускать на телефоне без сильной потери по качеству.
Добились этого через эвухэтапный файнтюн: сначала SFT на параллельных корпусах (включая синтетику от Gemini), потом reinforcement learning с MetricX-QE и AutoMQM в качестве reward-моделей. Интересно, что модель сохранила мультимодальность от Gemma 3 — переводит текст на картинках без дополнительного обучения. Протестировали на Vistra benchmark, работает.
Где запускать
Помимо 55 основных языковых пар, модель обучали ещё на ~500 дополнительных. Метрик по ним пока нет, но веса открыты — можно файнтюнить под свои low-resource языки.
На мой вкус между английским и русским переводит очень достойно, даже 4B версия. Не хватает адаптации для нейтив-спикеров, но сами предложения вполне корректно составлены и читаются без запинок.