Сравнение производительности больших языковых моделей на Ollama с видеокартой 16 ГБ VRAM
Тест скорости LLM на RTX 4080 с 16 ГБ видеопамяти
Запуск крупных языковых моделей локально обеспечивает вам конфиденциальность, возможность работы оффлайн и отсутствие затрат на API. Этот бенчмарк раскрывает, чего именно можно ожидать от 14 популярных LLMs на Ollama на RTX 4080.
С видеокартой на 16GB VRAM я постоянно сталкивался с компромиссом: более крупные модели с потенциально лучшим качеством или более компактные модели с быстрым выводом. Для более подробной информации о производительности ЛЯМ — пропускная способность против задержки, ограничения VRAM, параллельные запросы и бенчмарки по различным средам выполнения — см. Производительность ЛЯМ: Бенчмарки, узкие места и оптимизация.

Кратко
Вот обновленная таблица сравнения производительности ЛЯМ на RTX 4080 16GB с Ollama 0.17.7, добавлены модели Qwen 3.5 9b, 9bq8, 27b и 35b (2026-03-09):
| Модель | Используемая RAM+VRAM | Разделение CPU/GPU | Токенов/сек |
|---|---|---|---|
| gpt-oss:20b | 14 ГБ | 100% GPU | 139.93 |
| qwen3.5:9b | 9.3 ГБ | 100% GPU | 90.89 |
| ministral-3:14b | 13 ГБ | 100% GPU | 70.13 |
| qwen3:14b | 12 ГБ | 100% GPU | 61.85 |
| qwen3.5:9b-q8_0 | 13 ГБ | 100% GPU | 61.22 |
| qwen3-coder:30b | 20 ГБ | 25%/75% CPU/GPU | 57.17 |
| qwen3-vl:30b-a3b | 22 ГБ | 30%/70% CPU/GPU | 50.99 |
| glm-4.7-flash | 21 ГБ | 27%/73% CPU/GPU | 33.86 |
| nemotron-3-nano:30b | 25 ГБ | 38%/62% CPU/GPU | 32.77 |
| qwen3.5:35b | 27 ГБ | 43%/57% CPU/GPU | 20.66 |
| devstral-small-2:24b | 19 ГБ | 18%/82% CPU/GPU | 18.67 |
| mistral-small3.2:24b | 19 ГБ | 18%/82% CPU/GPU | 18.51 |
| gpt-oss:120b | 66 ГБ | 78%/22% CPU/GPU | 12.64 |
| qwen3.5:27b | 24 ГБ | 43%/57% CPU/GPU | 6.48 |
Ключевой вывод: Модели, которые полностью помещаются в VRAM, работают значительно быстрее. GPT-OSS 20B достигает 139.93 токенов/сек, в то время как GPT-OSS 120B с сильным отключением CPU ползет со скоростью 12.64 токенов/сек — разница в скорости в 11 раз.
Тестовая аппаратная конфигурация
Бенчмарк проводился на следующей системе:
- GPU: NVIDIA RTX 4080 с 16GB VRAM
- CPU: Intel Core i7-14700 (8 P-ядер + 12 E-ядер)
- RAM: 64GB DDR5-6000
Это представляет собой типичную конфигурацию высокого уровня для локального вывода ЛЯМ. 16GB VRAM — это критическое ограничение — оно определяет, какие модели работают полностью на GPU, а какие требуют отключения CPU.
Понимание как Ollama использует ядра Intel CPU становится важным, когда модели превышают емкость VRAM, так как производительность CPU напрямую влияет на скорость вывода слоев, отключенных на CPU.
Цель этого бенчмарка
Основная цель заключалась в измерении скорости вывода в реалистичных условиях. Я уже знал из опыта, что Mistral Small 3.2 24B превосходит по качеству языка, а Qwen3 14B предлагает лучшее следование инструкциям для моих конкретных случаев использования.
Этот бенчмарк отвечает на практический вопрос: Насколько быстро каждая модель может генерировать текст, и какой штраф за скорость за превышение лимитов VRAM?
Параметры теста были следующими:
- Размер контекста: 19,000 токенов. Это среднее значение в моих запросах Generate.
- Запрос: “сравнить погоду и климат между столицами Австралии”
- Метрика: скорость вывода (токенов в секунду во время генерации)
Установка и версия Ollama
Все тесты использовали версию Ollama 0.15.2, последнюю на момент тестирования. Позже перезапущены на Ollama v 0.17.7 — для добавления моделей Qwen3.5. Для полного списка команд Ollama, использованных в этом бенчмарке, см. Шпаргалку по Ollama.
Для быстрого восстановления — установка Ollama на Linux:
curl -fsSL https://ollama.com/install.sh | sh
Проверка установки:
ollama --version
Если вам нужно хранить модели на другом диске из-за ограничений по месту, ознакомьтесь с как переместить модели Ollama на другой диск.
Протестированные модели
Вот список протестированных моделей, в алфавитном порядке:
| Модель | Параметры | Квантование | Примечания |
|---|---|---|---|
| devstral-small-2:24b | 24B | Q4_K_M | Ориентированная на код |
| glm-4.7-flash | 30B | Q4_K_M | Модель мышления |
| gpt-oss:20b | 20B | Q4_K_M | Самая быстрая в целом |
| gpt-oss:120b | 120B | Q4_K_M | Самая крупная протестированная |
| ministral-3:14b | 14B | Q4_K_M | Эффективная модель Mistral |
| mistral-small3.2:24b | 24B | Q4_K_M | Сильное качество языка |
| nemotron-3-nano:30b | 30B | Q4_K_M | Предложение NVIDIA |
| qwen3:14b | 14B | Q4_K_M | Лучшее следование инструкциям |
| qwen3.5:9b | 9B | Q4_K_M | Быстрая, полностью на GPU |
| qwen3.5:9b-q8_0 | 9B | Q8_0 | Высокое качество, полностью на GPU |
| qwen3.5:27b | 27B | Q4_K_M | Отличное качество, медленная на Ollama |
| qwen3-vl:30b-a3b | 30B | Q4_K_M | С возможностью зрения |
| qwen3-coder:30b | 30B | Q4_K_M | Ориентированная на код |
| qwen3.5:35b | 35B | Q4_K_M | Хорошие возможности кодирования |
Для загрузки любой модели:
ollama pull gpt-oss:20b
ollama pull qwen3:14b
Понимание отключения CPU
Когда требования модели к памяти превышают доступную VRAM, Ollama автоматически распределяет слои модели между GPU и системной RAM. Результат показывает это как процентное соотношение, например, “18%/82% CPU/GPU”.
Это имеет огромные последствия для производительности. Каждая генерация токена требует передачи данных между памятью CPU и GPU — узкое место, которое усугубляется с каждым слоем, отключенным на CPU.
Из наших результатов ясно:
- Модели 100% GPU: 61-140 токенов/сек
- Модели 70-82% GPU: 19-51 токенов/сек
- 22% GPU (в основном CPU): 12.6 токенов/сек
Это объясняет, почему модель с параметрами 20B может превзойти модель с параметрами 120B в 11 раз на практике. Если вы планируете обслуживать несколько одновременных запросов, понимание как Ollama обрабатывает параллельные запросы становится существенным для планирования мощностей.
Подробные результаты бенчмарков
Модели, работающие на 100% на GPU
GPT-OSS 20B — Чемпион по скорости
ollama run gpt-oss:20b --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
gpt-oss:20b 14 GB 100% GPU 19000
eval count: 2856 token(s)
eval duration: 20.410517947s
eval rate: 139.93 tokens/s
Со скоростью 139.93 токенов/сек, GPT-OSS 20B является явным победителем для приложений, критичных к скорости. Он использует всего 14ГБ видеопамяти, оставляя запас для больших окон контекста или других задач GPU.
Qwen3 14B — Отличный баланс
ollama run qwen3:14b --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
qwen3:14b 12 GB 100% GPU 19000
eval count: 3094 token(s)
eval duration: 50.020594575s
eval rate: 61.85 tokens/s
Qwen3 14B предлагает лучшее выполнение инструкций по моему опыту, с комфортным использованием 12ГБ памяти. Со скоростью 61.85 токенов/сек, он достаточно отзывчив для интерактивного использования.
Для разработчиков, интегрирующих Qwen3 в приложения, см. LLM Structured Output with Ollama and Qwen3 для извлечения структурированных JSON-ответов.
Ministral 3 14B — Быстрый и компактный
ollama run ministral-3:14b --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
ministral-3:14b 13 GB 100% GPU 19000
eval count: 1481 token(s)
eval duration: 21.11734277s
eval rate: 70.13 tokens/s
Модель Mistral меньшего размера обеспечивает 70.13 токенов/сек, полностью помещаясь в видеопамять. Отличный выбор, когда нужна скорость и качество семейства Mistral.
qwen3.5:9b - быстрый и новый
ollama run qwen3.5:9b --verbose
/set parameter num_ctx 19000
сравнить погоду и климат между столицами Австралии
NAME ID SIZE PROCESSOR CONTEXT
qwen3.5:9b 6488c96fa5fa 9.3 GB 100% GPU 19000
eval count: 3802 token(s)
eval duration: 41.830174597s
eval rate: 90.89 tokens/s
qwen3.5:9b-q8_0 - квантование q8
Это квантование снижает производительность qwen3.5:9b на 30% по сравнению с q4.
ollama run qwen3.5:9b-q8_0 --verbose
/set parameter num_ctx 19000
сравнить погоду и климат между столицами Австралии
NAME ID SIZE PROCESSOR CONTEXT
qwen3.5:9b-q8_0 441ec31e4d2a 13 GB 100% GPU 19000
eval count: 3526 token(s)
eval duration: 57.595540159s
eval rate: 61.22 tokens/s
Модели, требующие выгрузки на CPU
qwen3-coder:30b - самая быстрая из набора 30B LLM благодаря текстовой направленности
ollama run qwen3-coder:30b --verbose
/set parameter num_ctx 19000
сравнить погоду и климат между столицами Австралии
NAME ID SIZE PROCESSOR CONTEXT
qwen3-coder:30b 06c1097efce0 20 GB 25%/75% CPU/GPU 19000
22%/605%
eval count: 559 token(s)
eval duration: 9.77768875s
eval rate: 57.17 tokens/s
Qwen3-VL 30B — Лучшая производительность при частичной выгрузке
ollama run qwen3-vl:30b-a3b-instruct --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
qwen3-vl:30b-a3b-instruct 22 GB 30%/70% CPU/GPU 19000
eval count: 1450 token(s)
eval duration: 28.439319709s
eval rate: 50.99 tokens/s
Несмотря на 30% слоев на CPU, Qwen3-VL поддерживает 50.99 токенов/сек — быстрее, чем некоторые модели на 100% GPU. Возможности работы с изображениями добавляют универсальность для мультимодальных задач.
Mistral Small 3.2 24B — Компромисс между качеством и скоростью
ollama run mistral-small3.2:24b --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
mistral-small3.2:24b 19 GB 18%/82% CPU/GPU 19000
eval count: 831 token(s)
eval duration: 44.899859038s
eval rate: 18.51 tokens/s
Mistral Small 3.2 предлагает лучшее качество языка, но с существенной потерей скорости. Со скоростью 18.51 токенов/сек, он заметно медленнее для интерактивного чата. Стоит того для задач, где важнее качество, чем задержка.
GLM 4.7 Flash — Модель “мыслительного” типа MoE
ollama run glm-4.7-flash --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
glm-4.7-flash 21 GB 27%/73% CPU/GPU 19000
eval count: 2446 token(s)
eval duration: 1m12.239164004s
eval rate: 33.86 tokens/s
GLM 4.7 Flash — это модель Mixture of Experts 30B-A3B — 30B параметров всего, но только 3B активных на токен. Как “мыслительная” модель, она генерирует внутренние рассуждения перед ответами. Скорость 33.86 токенов/сек включает как токены мышления, так и вывода. Несмотря на выгрузку на CPU, архитектура MoE сохраняет её достаточно быстрой.
qwen3.5:35b - Новая модель с хорошей производительностью при самохостинге
ollama run qwen3.5:35b --verbose
/set parameter num_ctx 19000
сравнить погоду и климат между столицами Австралии
NAME ID SIZE PROCESSOR CONTEXT
qwen3.5:35b 4af949f8bdf0 27 GB 43%/57% CPU/GPU 19000
eval count: 3418 token(s)
eval duration: 2m45.458926548s
eval rate: 20.66 tokens/s
GPT-OSS 120B — Тяжеловес
ollama run gpt-oss:120b --verbose
/set parameter num_ctx 19000
NAME SIZE PROCESSOR CONTEXT
gpt-oss:120b 66 GB 78%/22% CPU/GPU 19000
eval count: 5008 token(s)
eval duration: 6m36.168233066s
eval rate: 12.64 tokens/s
Запуск 120B модели на 16ГБ видеопамяти технически возможен, но болезненен. С 78% на CPU, скорость 12.64 токенов/сек делает интерактивное использование раздражающим. Лучше подходит для пакетной обработки, где задержка не важна.
qwen3.5:27b - Умный, но медленный на Ollama
ollama run qwen3.5:27b --verbose
/set parameter num_ctx 19000
сравнить погоду и климат между столицами Австралии
NAME ID SIZE PROCESSOR CONTEXT
qwen3.5:27b 193ec05b1e80 24 GB 43%/57% CPU/GPU 19000
eval count: 3370 token(s)
eval duration: 8m40.087510281s
eval rate: 6.48 tokens/s
Я тестировал qwen3.5:27b и получил отличное мнение о производительности этой модели с OpenCode. Она очень способная, знающая, с отличным вызовом инструментов, хотя и медленная на моем компьютере на Ollama. Я пробовал другие платформы самохостинга LLM и получал значительно более высокие скорости. Я думаю, пришло время расстаться с Ollama. Напишу об этом немного позже.
Практические рекомендации
Для интерактивного чата
Используйте модели, которые полностью помещаются в видеопамять:
- GPT-OSS 20B — Максимальная скорость (139.93 т/с)
- Ministral 3 14B — Хорошая скорость с качеством Mistral (70.13 т/с)
- Qwen3 14B — Лучшее выполнение инструкций (61.85 т/с)
Для лучшего опыта чата рассмотрите Открытые интерфейсы чата для локального Ollama.
Для пакетной обработки
Это снова на моем оборудовании - 14ГБ видеопамяти.
Когда скорость менее критична:
- Mistral Small 3.2 24B — Превосходное качество языка
- Qwen3-VL 30B — Возможности работы с изображениями и текстом
Когда скорость вообще не критична:
- Qwen3.5:35b - Хорошие возможности кодирования
- Qwen3.5:27b - Очень хорошая, но медленная на Ollama. У меня был значительный успех в хостинге этой модели на llama.cpp.
Для разработки и кодирования
Если вы создаете приложения с Ollama:
Альтернативные варианты хостинга
Если вас беспокоят ограничения Ollama (см. Озабоченности по поводу ухудшения Ollama), исследуйте другие варианты в Руководстве по локальному хостингу LLM или сравните Docker Model Runner vs Ollama.
Заключение
С 16ГБ видеопамяти вы можете запускать способные LLM на впечатляющих скоростях — если выбираете мудро. Основные выводы:
-
Оставайтесь в пределах лимитов видеопамяти для интерактивного использования. 20B модель со скоростью 140 токенов/сек побеждает 120B модель со скоростью 12 токенов/сек для большинства практических целей.
-
GPT-OSS 20B побеждает по чистой скорости, но Qwen3 14B предлагает лучший баланс скорости и возможностей для выполнения инструкций.
-
Выгрузка на CPU работает, но ожидайте замедления в 3-10 раз. Приемлемо для пакетной обработки, раздражающе для чата.
-
Размер контекста важен. Используемый здесь контекст 19К значительно увеличивает использование видеопамяти. Уменьшайте контекст для лучшего использования GPU.
Для поиска на основе ИИ, сочетающего локальные LLM с веб-результатами, см. Самохостинг Perplexica с Ollama.
Чтобы изучить больше бенчмарков, компромиссов между видеопамятью и пропускной способностью, а также настройки производительности в Ollama и других средах выполнения, посетите наш Центр производительности LLM: Бенчмарки, узкие места и оптимизация.
Полезные ссылки
Внутренние ресурсы
- Шпаргалка по Ollama: самые полезные команды Ollama
- Как Ollama обрабатывает параллельные запросы
- Как Ollama использует производительность Intel CPU и эффективные ядра
- Локальное хостинг LLM: полное руководство на 2026 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие