SuperGemma4-31B-Abliterated: Самая мощная компактная локальная LLM 2026 года — без цензуры, лёгкая и по-настоящему умная
Main chat
A chat for vibe coders: news, guides, live cases, marketplace, and finding executors.
В апреле 2026 года, когда рынок локальных моделей переполнен аблитерированными версиями Gemma, Llama и Qwen, один релиз мгновенно взорвал сообщество. SuperGemma4-31B-Abliterated от Jiunsong (известного как @songjunkr) — это не просто очередная «uncensored»-версия Google Gemma-4-31B-it. Это глубоко переработанная модель, которая берёт базовую Gemma 4 31B, полностью снимает цензуру, устраняет врождённые слабости и оптимизирует вычисления до такого уровня, что прирост в бенчмарках достигает +8.5% в общем зачёте и +119% по BenchTok.
Модель вышла буквально в последние дни (анонс в Telegram и X совпадает с постом пользователя), и уже позиционируется как «то, что мы все хотели от локальной LLM»: полностью без цензуры, лёгкая в запуске, невероятно умная и при этом компактная по меркам 31B-класса. Доступна сразу в двух удобных форматах — MLX 4-bit (нативно для Apple Silicon) и GGUF 4-bit (для всех остальных).
Что такое SuperGemma4-31B-Abliterated и на чём она построена
База — официальная google/gemma-4-31B-it (dense-модель 31 миллиарда параметров, выпущенная Google в начале 2026 года). Jiunsong взял её, применил продвинутую аблитерацию (удаление refusal-направлений), а затем провёл агрессивную пост-оптимизацию:
- Устранены врождённые слабости модели.
- Убраны неэффективные этапы вычислений.
- Удалены ненужные дублирующиеся данные в весах.
Результат — модель, которая чувствует себя полностью uncensored, значительно полезнее и веселее в повседневном использовании. Автор специально подчёркивает: это не сырой аблит, а «heavily upgraded» версия, заточенная под реальные сценарии локального запуска.
Из-за ограничений железа автора не удалось сделать dense bf16-версию — поэтому сразу вышли оптимизированные 4-bit кванты. Но это не минус: на практике 4-bit даёт отличный баланс качества и скорости.
Бенчмарки: реальный прирост, а не маркетинг
Вот сравнение, которое приводится в официальном анонсе (31b-it-base vs SuperGemma4-31B):
| Метрика | 31b-it-base | SuperGemma4 31B | Прирост |
|---|---|---|---|
| Total | 68.50 | 74.30 | +8.5% |
| Mini | 74.00 | 80.80 | +9.2% |
| Target | 60.60 | 65.10 | +7.4% |
| Reg | 50.00 | 66.70 | +33.4% |
| BenchTok | 12.18 | 26.70 | +119.2% |
Тестировалось по MMLU, GPQA, IFEval и другим ключевым бенчмаркам. Особенно впечатляет рост в Reg (+33.4%) и BenchTok (+119%) — это значит, что модель стала заметно лучше в регулярных задачах и генерации токенов (скорость/качество вывода).
По отзывам ранних тестеров, SuperGemma4 ощущается «острее» базовой Gemma 4 в кодинге, tool-use, длинном контексте и креативных задачах. При этом отказов почти нет — «0/100 refusals» в похожих 26B-версиях линейки.
Ключевые преимущества перед другими локальными 31B-моделями
Полная свобода (uncensored)
Аблитерация проведена качественно: модель отвечает на любые запросы без морализаторства и отказов, но сохраняет coherentность и полезность.Компактность и скорость
4-bit кванты позволяют запускать 31B-модель даже на относительно скромном железе (16–24 ГБ VRAM для GGUF Q4). На Apple Silicon (M2/M3/M4/Max) MLX-версия летает нативно.«Живое» поведение
Автор специально оптимизировал под повседневное использование: лучше tool-calling, меньше «tokenizer jank», более естественные и полезные ответы.Мультимодальность базовой Gemma 4 сохранена (vision, image-text и т.д. в оригинале; в SuperGemma4 акцент на текст, но основа multimodal).
Открытость
MIT-подобная лицензия Gemma, полная открытость на Hugging Face.
Как запустить SuperGemma4-31B-Abliterated
Вариант 1: Apple Silicon (MLX 4-bit) — самый простой
# Установите mlx-lm если ещё нет
pip install mlx-lm
# Запуск
python -m mlx_lm.generate --model Jiunsong/SuperGemma4-31b-abliterated-mlx-4bit --prompt "Ваш запрос здесь"
Или через LM Studio / Ollama-подобные обёртки с MLX-поддержкой.
Вариант 2: GGUF 4-bit (Windows, Linux, macOS, даже слабое железо)
Скачайте с sibling-репозитория:
→ Jiunsong/SuperGemma4-31b-abliterated-GGUF (Q4_K_M и другие кванты)
Запуск через llama.cpp:
./llama-cli -m SuperGemma4-31b-abliterated-Q4_K_M.gguf -p "Ваш промпт" -n 512 --temp 0.7
Или через Ollama / LM Studio / SillyTavern / KoboldCpp — модель уже появляется в сообществе.
Рекомендации по железу:
- 24 ГБ VRAM → комфортно Q4/Q5.
- 16 ГБ → Q4_K_M на грани, но работает.
- Apple M4 Max → MLX-версия показывает лучшие скорости.
Нюансы, ограничения и честные минусы
Плюсы:
- Реальный прирост качества над базой.
- Отличный выбор для тех, кто устал от цензуры в Claude/GPT и хочет локальный «флагман».
- Активно развивается (у Jiunsong уже есть сильная линейка SuperGemma 26B).
Минусы и нюансы:
- Молодой релиз — возможны мелкие баги и нестабильность (автор прямо пишет: «Может быть немного нестабильной»).
- Нет dense bf16 — только кванты (но для 99% пользователей это плюс).
- Качество сильно зависит от промптинга: как и все Gemma, любит чёткие инструкции.
- Пока меньше community-fine-tunes, чем у Llama-3/4.
Почему это важно именно сейчас
2026 год — переломный для локального ИИ. Облачные модели становятся всё дороже и цензурированнее, а железо (особенно Apple Silicon и RTX 50-й серии) уже легко тянет 30+ миллиардов параметров. SuperGemma4-31B-Abliterated — яркий пример, как open-source-сообщество берёт топовую модель Google и превращает её в то, чем она должна была быть изначально: мощный, свободный и доступный инструмент.
Если вы разрабатываете, занимаетесь research, пишете код, создаёте контент или просто хотите личного ИИ без подписок и ограничений — это одна из лучших моделей весны 2026 года.
Ссылки для скачивания и обсуждения:
- MLX 4-bit: huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-mlx-4bit
- GGUF: huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-GGUF
- Анонс автора: следите за @songjunkr в X.