vibecode.wiki
RU EN
~/wiki / новости / supergemma4-31b-abliterated-uncensored-local-llm

SuperGemma4-31B-Abliterated: Самая мощная компактная локальная LLM 2026 года — без цензуры, лёгкая и по-настоящему умная

◷ 6 мин чтения 15.04.2026

Основной чат

Чат для вайбкодеров: новости, гайды, поиск исполнителей, маркетплейс и разбор реальных кейсов.

$ cd раздел/ $ join vibe dev

SuperGemma4-31B-Abliterated

В апреле 2026 года, когда рынок локальных моделей переполнен аблитерированными версиями Gemma, Llama и Qwen, один релиз мгновенно взорвал сообщество. SuperGemma4-31B-Abliterated от Jiunsong (известного как @songjunkr) — это не просто очередная «uncensored»-версия Google Gemma-4-31B-it. Это глубоко переработанная модель, которая берёт базовую Gemma 4 31B, полностью снимает цензуру, устраняет врождённые слабости и оптимизирует вычисления до такого уровня, что прирост в бенчмарках достигает +8.5% в общем зачёте и +119% по BenchTok.

Модель вышла буквально в последние дни (анонс в Telegram и X совпадает с постом пользователя), и уже позиционируется как «то, что мы все хотели от локальной LLM»: полностью без цензуры, лёгкая в запуске, невероятно умная и при этом компактная по меркам 31B-класса. Доступна сразу в двух удобных форматах — MLX 4-bit (нативно для Apple Silicon) и GGUF 4-bit (для всех остальных).

Что такое SuperGemma4-31B-Abliterated и на чём она построена

База — официальная google/gemma-4-31B-it (dense-модель 31 миллиарда параметров, выпущенная Google в начале 2026 года). Jiunsong взял её, применил продвинутую аблитерацию (удаление refusal-направлений), а затем провёл агрессивную пост-оптимизацию:

  • Устранены врождённые слабости модели.
  • Убраны неэффективные этапы вычислений.
  • Удалены ненужные дублирующиеся данные в весах.

Результат — модель, которая чувствует себя полностью uncensored, значительно полезнее и веселее в повседневном использовании. Автор специально подчёркивает: это не сырой аблит, а «heavily upgraded» версия, заточенная под реальные сценарии локального запуска.

Из-за ограничений железа автора не удалось сделать dense bf16-версию — поэтому сразу вышли оптимизированные 4-bit кванты. Но это не минус: на практике 4-bit даёт отличный баланс качества и скорости.

Бенчмарки: реальный прирост, а не маркетинг

Вот сравнение, которое приводится в официальном анонсе (31b-it-base vs SuperGemma4-31B):

Метрика 31b-it-base SuperGemma4 31B Прирост
Total 68.50 74.30 +8.5%
Mini 74.00 80.80 +9.2%
Target 60.60 65.10 +7.4%
Reg 50.00 66.70 +33.4%
BenchTok 12.18 26.70 +119.2%

Тестировалось по MMLU, GPQA, IFEval и другим ключевым бенчмаркам. Особенно впечатляет рост в Reg (+33.4%) и BenchTok (+119%) — это значит, что модель стала заметно лучше в регулярных задачах и генерации токенов (скорость/качество вывода).

По отзывам ранних тестеров, SuperGemma4 ощущается «острее» базовой Gemma 4 в кодинге, tool-use, длинном контексте и креативных задачах. При этом отказов почти нет — «0/100 refusals» в похожих 26B-версиях линейки.

Ключевые преимущества перед другими локальными 31B-моделями

  1. Полная свобода (uncensored)
    Аблитерация проведена качественно: модель отвечает на любые запросы без морализаторства и отказов, но сохраняет coherentность и полезность.

  2. Компактность и скорость
    4-bit кванты позволяют запускать 31B-модель даже на относительно скромном железе (16–24 ГБ VRAM для GGUF Q4). На Apple Silicon (M2/M3/M4/Max) MLX-версия летает нативно.

  3. «Живое» поведение
    Автор специально оптимизировал под повседневное использование: лучше tool-calling, меньше «tokenizer jank», более естественные и полезные ответы.

  4. Мультимодальность базовой Gemma 4 сохранена (vision, image-text и т.д. в оригинале; в SuperGemma4 акцент на текст, но основа multimodal).

  5. Открытость
    MIT-подобная лицензия Gemma, полная открытость на Hugging Face.

Как запустить SuperGemma4-31B-Abliterated

Вариант 1: Apple Silicon (MLX 4-bit) — самый простой

bash
# Установите mlx-lm если ещё нет
pip install mlx-lm

# Запуск
python -m mlx_lm.generate --model Jiunsong/SuperGemma4-31b-abliterated-mlx-4bit --prompt "Ваш запрос здесь"

Или через LM Studio / Ollama-подобные обёртки с MLX-поддержкой.

Вариант 2: GGUF 4-bit (Windows, Linux, macOS, даже слабое железо)
Скачайте с sibling-репозитория:
Jiunsong/SuperGemma4-31b-abliterated-GGUF (Q4_K_M и другие кванты)

Запуск через llama.cpp:

bash
./llama-cli -m SuperGemma4-31b-abliterated-Q4_K_M.gguf -p "Ваш промпт" -n 512 --temp 0.7

Или через Ollama / LM Studio / SillyTavern / KoboldCpp — модель уже появляется в сообществе.

Рекомендации по железу:

  • 24 ГБ VRAM → комфортно Q4/Q5.
  • 16 ГБ → Q4_K_M на грани, но работает.
  • Apple M4 Max → MLX-версия показывает лучшие скорости.

Нюансы, ограничения и честные минусы

Плюсы:

  • Реальный прирост качества над базой.
  • Отличный выбор для тех, кто устал от цензуры в Claude/GPT и хочет локальный «флагман».
  • Активно развивается (у Jiunsong уже есть сильная линейка SuperGemma 26B).

Минусы и нюансы:

  • Молодой релиз — возможны мелкие баги и нестабильность (автор прямо пишет: «Может быть немного нестабильной»).
  • Нет dense bf16 — только кванты (но для 99% пользователей это плюс).
  • Качество сильно зависит от промптинга: как и все Gemma, любит чёткие инструкции.
  • Пока меньше community-fine-tunes, чем у Llama-3/4.

Почему это важно именно сейчас

2026 год — переломный для локального ИИ. Облачные модели становятся всё дороже и цензурированнее, а железо (особенно Apple Silicon и RTX 50-й серии) уже легко тянет 30+ миллиардов параметров. SuperGemma4-31B-Abliterated — яркий пример, как open-source-сообщество берёт топовую модель Google и превращает её в то, чем она должна была быть изначально: мощный, свободный и доступный инструмент.

Если вы разрабатываете, занимаетесь research, пишете код, создаёте контент или просто хотите личного ИИ без подписок и ограничений — это одна из лучших моделей весны 2026 года.

Ссылки для скачивания и обсуждения: