< Все записки
Искусственный интеллект

Gemma 4: Выбор и настройка

11 апреля 2026 г. Оператор #gemma#llm#hardware#ai-models#ollama#ram

Это руководство поможет быстро подобрать версию Gemma 4 под ваше железо и задачи. Внутри собраны требования к памяти, команды для Ollama и инструкция по созданию кастомных конфигураций через Modelfile.

Варианты моделей

  • E2B (2B): Мультимодальная (текст/фото/аудио). Лучшее решение для OCR и слабых устройств.

  • E4B (4B): Баланс для локальных ассистентов. Контекст 128K подходит для анализа документов.

  • 26B A4B (MoE): Мощная модель для кода и агентов. Поддерживает контекст до 256K.

  • 31B Dense: Максимальная логика и режим рассуждений (Thinking) для сложных вычислений.

Сводная таблица (для 12 ГБ VRAM)

МодельКвантованиеVRAMСкоростьПрименение
4BQ8_0 (High)~9 ГБВысокаяОсновной чат-бот
4BQ4_K_M (Med)~5.5 ГБМаксимальнаяДлинный контекст
26BQ4_K_M>16 ГБНизкаяАнализ кода (через RAM)

Требования к памяти

  1. VRAM (Видеопамять): Модели до 4B (Q8) отлично работают на 12 ГБ. Версии 26B/31B требуют 16–24 ГБ для плавной работы.

  2. System RAM (Оперативная память): При нехватке VRAM данные переносятся в RAM. Для тяжелых моделей (26B+) рекомендуется иметь 32–64 ГБ быстрой оперативной памяти, иначе скорость генерации упадет до минимума.