Быстрый старт с OpenClaw: установка через Docker (Ollama с GPU или Claude + CPU)
Установка OpenClaw локально с помощью Ollama
OpenClaw — это самостоятельно размещаемый ИИ-ассистент, предназначенный для работы с локальными средами выполнения LLM, такими как Ollama, или с облачными моделями, такими как Claude Sonnet.
В этом быстром старте показано, как развернуть OpenClaw с использованием Docker, настроить либо локальную модель с поддержкой GPU, либо облачную модель, работающую только на CPU, и проверить, что ваш ИИ-ассистент работает от начала до конца.
В этом руководстве рассматривается минимальная настройка OpenClaw, чтобы вы могли увидеть его работу и получение ответов на собственной машине.
Цель проста:
- Запустить OpenClaw.
- Отправить запрос.
- Подтвердить, что всё работает.
Это не руководство по подготовке к продакшену.
Это не руководство по настройке производительности.
Это практическая отправная точка.
У вас есть два варианта:
- Путь А — Локальный GPU с использованием Ollama (рекомендуется, если у вас есть GPU)
- Путь Б — Только CPU с использованием Claude Sonnet 4.6 через API Anthropic
Оба пути используют одинаковый основной процесс установки.

Если вы только знакомитесь с OpenClaw и хотите получить более глубокое представление о структуре системы, прочитайте Обзор системы OpenClaw.
Требования к системе и настройка окружения
OpenClaw — это система в стиле ассистента, которая может подключаться к внешним сервисам. Для этого быстрого старта:
- По возможности используйте тестовые учетные записи.
- Избегайте подключения чувствительных производственных систем.
- Запустите его внутри Docker (рекомендуется).
Изоляция — это хороший выбор по умолчанию при экспериментировании с программным обеспечением в стиле агентов.
Предварительные требования для OpenClaw (GPU с Ollama или CPU с Claude)
Обязательно для обоих путей
- Git
- Docker Desktop (или Docker + Docker Compose)
- Терминал
Для Пути А (Локальный GPU)
- Машина с совместимым GPU (рекомендуются NVIDIA или AMD)
- Установленный Ollama
Для Пути Б (CPU + Облачная модель)
- API-ключ от Anthropic
- Доступ к Claude Sonnet 4.6
Шаг 1 — Установка OpenClaw с помощью Docker (Клонирование и запуск)
OpenClaw можно запустить с использованием Docker Compose. Это позволяет сохранить настройку изолированной и воспроизводимой.
Клонирование репозитория
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Копирование конфигурации окружения
cp .env.example .env
Откройте файл .env в редакторе. Мы настроим его на следующем шаге в зависимости от выбранного вами пути модели.
Запуск контейнеров
docker compose up -d
Если всё запустилось корректно, вы увидите работающие контейнеры:
docker ps
На этом этапе OpenClaw запущен — но он ещё не подключен к модели.
Шаг 2 — Настройка провайдера LLM (Ollama GPU или Claude CPU)
Теперь решите, как должна работать инференс.
Путь А — Локальный GPU с Ollama
Если у вас есть доступный GPU, это самый простой и самодостаточный вариант.
Установка или проверка Ollama
Если вам нужно более подробное руководство по установке или вы хотите настроить расположение хранения моделей, см.:
- Установка Ollama и настройка расположения моделей
- Шпаргалка CLI Ollama: ls, serve, run, ps и другие команды (обновление 2026)
Если Ollama не установлен:
curl -fsSL https://ollama.com/install.sh | sh
Проверьте работоспособность:
ollama pull llama3
ollama run llama3
Если модель отвечает, инференс работает.
Настройка OpenClaw для использования Ollama
В файле .env настройте:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Перезапустите контейнеры:
docker compose restart
Теперь OpenClaw будет маршрутизировать запросы к вашему локальному экземпляру Ollama.
Если вы решаете, какую модель запустить на GPU с 16 ГБ памяти, или хотите сравнение бенчмарков, см.:
Чтобы понять работу с параллелизмом и поведение CPU под нагрузкой:
- Как Ollama обрабатывает параллельные запросы
- Тест: как Ollama использует производительность Intel CPU и эффективные ядра
Путь Б — Только CPU с использованием Claude Sonnet 4.6
Если у вас нет GPU, вы можете использовать размещенную модель.
Добавление API-ключа
В файле .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=ваш_api_ключ_здесь
ANTHROPIC_MODEL=claude-sonnet-4-6
Перезапустите:
docker compose restart
Теперь OpenClaw будет использовать Claude Sonnet 4.6 для инференса, в то время как оркестрация выполняется локально.
Эта настройка хорошо работает на машинах только с CPU, поскольку тяжелые вычисления модели происходят в облаке.
Если вы используете здесь модели Anthropic, это изменение политики подписки на Claude объясняет, почему OpenClaw требует биллинг через API вместо повторного использования плана подписки Claude.
Шаг 3 — Тестирование OpenClaw с первым запросом
После того как контейнеры запущены и модель настроена, вы можете протестировать ассистента.
В зависимости от вашей настройки это может быть через:
- Веб-интерфейс
- Интеграцию с мессенджерами
- Локальный API-эндпоинт
Для базового API-теста:
curl http://localhost:3000/health
Вы должны увидеть ответ со статусом здоровья.
Теперь отправьте простой запрос:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Объясните простыми словами, что делает OpenClaw."}'
Если вы получили структурированный ответ, система работает.
Что вы только что запустили
На этом этапе у вас есть:
- Запущенный экземпляр OpenClaw
- Настроенный провайдер LLM (локальный или облачный)
- Работающий цикл запрос-ответ
Если вы выбрали путь с GPU, инференс происходит локально через Ollama.
Если вы выбрали путь с CPU, инференс происходит через Claude Sonnet 4.6, в то время как оркестрация, маршрутизация и обработка памяти выполняются внутри ваших локальных контейнеров Docker.
Видимое взаимодействие может выглядеть простым. Под капотом координируются множество компонентов для обработки вашего запроса.
Устранение проблем с установкой и запуском OpenClaw
Модель не отвечает
- Проверьте конфигурацию вашего файла
.env. - Проверьте логи контейнеров:
docker compose logs
Ollama недоступен
- Убедитесь, что Ollama запущен:
ollama list
- Убедитесь, что базовый URL соответствует вашему окружению.
Неверный API-ключ
- Двойная проверка
ANTHROPIC_API_KEY - Перезапустите контейнеры после обновления
.env
GPU не используется
- Убедитесь, что драйверы GPU установлены.
- Убедитесь, что для Docker включен доступ к GPU.
Следующие шаги после установки OpenClaw
Теперь у вас есть работающий экземпляр OpenClaw.
Отсюда вы можете:
- Подключить платформы для обмена сообщениями
- Включить извлечение документов
- Экспериментировать со стратегиями маршрутизации
- Добавить наблюдаемость и метрики
- Настроить производительность и поведение затрат
Более глубокие архитектурные обсуждения имеют больше смысла, когда система уже работает.
Приведение системы в рабочее состояние — это первый шаг.
После запуска следующие статьи станут естественным продолжением:
- Руководство по плагинам OpenClaw — какие плагины установить для памяти, инструментов, каналов и наблюдаемости, и как работает жизненный цикл
- Руководство по навыкам OpenClaw — какие навыки стоит установить из ClawHub и как безопасно ограничивать их для каждой роли агента
- Шаблоны настройки OpenClaw для продакшена — как плагины и навыки сочетаются для реальных типов пользователей, таких как разработчики, команды автоматизации, исследователи и операторы поддержки
Для дополнительных кейсов систем искусственного интеллекта см. раздел Системы ИИ.