Топ трендов HuggingFace за неделю
TL;DR
Новое: Qwen3.5 маленькая серия (9B, 4B, 0.8B) — Gated DeltaNet даёт 262K контекст даже на 0,8B. Sarvam (105B, 30B) — индийский стартап бьёт frontier в reasoning. LTX-2.3 — open-source видео+аудио до 4K/50FPS. Phi-4-Reasoning-Vision-15B — VLM от Microsoft для CUA-агентов. FireRed-Image-Edit-1.1 — SOTA identity preservation.
Держится: Qwen3.5-397B, Qwen3.5-35B-A3B, Qwen3.5-27B.
Половина топа по прежнему Alibaba. После крупных моделей из прошлых обзоров выкатили «маленькую» серию.
— Qwen3.5-9B — самая умная модель до 10B по Artificial Analysis (32 балла, 2x от ближайших). Native multimodal, 262K контекст. Архитектура: гибрид Gated Delta Networks + MoE — из 32 слоёв только 8 с полным вниманием, остальные линейные GDN. KV-кэш: десятки мегабайт вместо гигабайт. GPQA Diamond 81,7, MMLU-Pro 82,5.
— Qwen3.5-4B — ~3GB VRAM в Q4. Самая умная до 5B (27 баллов). GPQA Diamond 76,2, MMMU-Pro 65,4% — обходит Qwen3-VL-4B и Ministral 3 8B.
— Qwen3.5-0.8B () — меньше гигабайта, 262K контекст, native vision, 201 язык. Запускается на смартфоне.
GGUF от Unsloth, uncensored-варианты уже есть.
Sarvam — Индия выходит на поле
— Sarvam-105B — MoE 106B/10,3B активных. MLA-стек, 128 экспертов, контекст 128K. Обучена в Индии на IndiaAI. AIME 25 w/tools 96,7, Math500 98,6, GPQA Diamond 78,7, BrowseComp 49,5 (выше DeepSeek R1). JEE Mains 2026 — 25/25. SOTA на 22 индийских языках. Apache 2.0.
— Sarvam-30B — 32B/2,4B активных. Уничтожает Gemma 27B: LiveCodeBench 70,0 vs 28,0, Math500 97,0 vs 87,4. Фьюзд-ядра дают 3–6x ускорение на H100. Apache 2.0.
Видео и медиа
— LTX-2.3 от Lightricks — DiT на 22B, синхронное видео+аудио. T2V, I2V, Audio-to-Video, extend, retake. Новый VAE для чётких текстур, 4x text connector, портрет 9:16, до 4K/50FPS, до 20 секунд. Distilled-версия на 8 шагов, LoRA за <1 час. ComfyUI, GGUF.
Reasoning и редактирование
— Phi-4-Reasoning-Vision-15B от Microsoft — SigLIP-2 + Phi-4-Reasoning, mid-fusion. Гибридный reasoning: <nothink> для простого, <think> для сложного. До 3600 визуальных токенов. ScreenSpot_v2 88.2 — заточен под GUI-grounding. MIT, обучен за 4 дня на 240 B200.
— FireRed-Image-Edit-1.1 — апгрейд из прошлого обзора. SOTA identity preservation, fusion 10+ элементов, портретный макияж, реставрация фото. 4.5с генерация на 30GB VRAM. ComfyUI, GGUF. Apache 2.0.
Community-дистилляции Claude Opus
Тренд недели — дистилляции Claude 4.6 Opus в локальные модели.
— Qwen3.5-27B-Claude-4.6-Opus-Distilled — fine-tune на reasoning-трейсах Opus. 262K контекст, SWE-bench ~72.0, HMMT ~91.4. ~16.5GB в Q4_K_M. GGUF.
— Crow-9B-Opus-Distill — 9B дистилляция в Qwen3.5 через Unsloth. Reasoning, кодинг, vision. Для consumer GPU.
Хорошей недели!