Быстрый старт с OpenClaw: установка через Docker (Ollama с GPU или Claude + CPU)

Установка OpenClaw локально с помощью Ollama

Содержимое страницы

OpenClaw — это самостоятельно размещаемый ИИ-ассистент, предназначенный для работы с локальными средами выполнения LLM, такими как Ollama, или с облачными моделями, такими как Claude Sonnet.

В этом быстром старте показано, как развернуть OpenClaw с использованием Docker, настроить либо локальную модель с поддержкой GPU, либо облачную модель, работающую только на CPU, и проверить, что ваш ИИ-ассистент работает от начала до конца.

В этом руководстве рассматривается минимальная настройка OpenClaw, чтобы вы могли увидеть его работу и получение ответов на собственной машине.

Цель проста:

  • Запустить OpenClaw.
  • Отправить запрос.
  • Подтвердить, что всё работает.

Это не руководство по подготовке к продакшену.
Это не руководство по настройке производительности.
Это практическая отправная точка.

У вас есть два варианта:

  • Путь А — Локальный GPU с использованием Ollama (рекомендуется, если у вас есть GPU)
  • Путь Б — Только CPU с использованием Claude Sonnet 4.6 через API Anthropic

Оба пути используют одинаковый основной процесс установки.

этапы установки openclaw: GPU против CPU

Если вы только знакомитесь с OpenClaw и хотите получить более глубокое представление о структуре системы, прочитайте Обзор системы OpenClaw.

Требования к системе и настройка окружения

OpenClaw — это система в стиле ассистента, которая может подключаться к внешним сервисам. Для этого быстрого старта:

  • По возможности используйте тестовые учетные записи.
  • Избегайте подключения чувствительных производственных систем.
  • Запустите его внутри Docker (рекомендуется).

Изоляция — это хороший выбор по умолчанию при экспериментировании с программным обеспечением в стиле агентов.


Предварительные требования для OpenClaw (GPU с Ollama или CPU с Claude)

Обязательно для обоих путей

  • Git
  • Docker Desktop (или Docker + Docker Compose)
  • Терминал

Для Пути А (Локальный GPU)

  • Машина с совместимым GPU (рекомендуются NVIDIA или AMD)
  • Установленный Ollama

Для Пути Б (CPU + Облачная модель)

  • API-ключ от Anthropic
  • Доступ к Claude Sonnet 4.6

Шаг 1 — Установка OpenClaw с помощью Docker (Клонирование и запуск)

OpenClaw можно запустить с использованием Docker Compose. Это позволяет сохранить настройку изолированной и воспроизводимой.

Клонирование репозитория

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Копирование конфигурации окружения

cp .env.example .env

Откройте файл .env в редакторе. Мы настроим его на следующем шаге в зависимости от выбранного вами пути модели.

Запуск контейнеров

docker compose up -d

Если всё запустилось корректно, вы увидите работающие контейнеры:

docker ps

На этом этапе OpenClaw запущен — но он ещё не подключен к модели.


Шаг 2 — Настройка провайдера LLM (Ollama GPU или Claude CPU)

Теперь решите, как должна работать инференс.


Путь А — Локальный GPU с Ollama

Если у вас есть доступный GPU, это самый простой и самодостаточный вариант.

Установка или проверка Ollama

Если вам нужно более подробное руководство по установке или вы хотите настроить расположение хранения моделей, см.:

Если Ollama не установлен:

curl -fsSL https://ollama.com/install.sh | sh

Проверьте работоспособность:

ollama pull llama3
ollama run llama3

Если модель отвечает, инференс работает.

Настройка OpenClaw для использования Ollama

В файле .env настройте:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Перезапустите контейнеры:

docker compose restart

Теперь OpenClaw будет маршрутизировать запросы к вашему локальному экземпляру Ollama.

Если вы решаете, какую модель запустить на GPU с 16 ГБ памяти, или хотите сравнение бенчмарков, см.:

Чтобы понять работу с параллелизмом и поведение CPU под нагрузкой:


Путь Б — Только CPU с использованием Claude Sonnet 4.6

Если у вас нет GPU, вы можете использовать размещенную модель.

Добавление API-ключа

В файле .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=ваш_api_ключ_здесь
ANTHROPIC_MODEL=claude-sonnet-4-6

Перезапустите:

docker compose restart

Теперь OpenClaw будет использовать Claude Sonnet 4.6 для инференса, в то время как оркестрация выполняется локально.

Эта настройка хорошо работает на машинах только с CPU, поскольку тяжелые вычисления модели происходят в облаке.

Если вы используете здесь модели Anthropic, это изменение политики подписки на Claude объясняет, почему OpenClaw требует биллинг через API вместо повторного использования плана подписки Claude.


Шаг 3 — Тестирование OpenClaw с первым запросом

После того как контейнеры запущены и модель настроена, вы можете протестировать ассистента.

В зависимости от вашей настройки это может быть через:

  • Веб-интерфейс
  • Интеграцию с мессенджерами
  • Локальный API-эндпоинт

Для базового API-теста:

curl http://localhost:3000/health

Вы должны увидеть ответ со статусом здоровья.

Теперь отправьте простой запрос:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Объясните простыми словами, что делает OpenClaw."}'

Если вы получили структурированный ответ, система работает.


Что вы только что запустили

На этом этапе у вас есть:

  • Запущенный экземпляр OpenClaw
  • Настроенный провайдер LLM (локальный или облачный)
  • Работающий цикл запрос-ответ

Если вы выбрали путь с GPU, инференс происходит локально через Ollama.

Если вы выбрали путь с CPU, инференс происходит через Claude Sonnet 4.6, в то время как оркестрация, маршрутизация и обработка памяти выполняются внутри ваших локальных контейнеров Docker.

Видимое взаимодействие может выглядеть простым. Под капотом координируются множество компонентов для обработки вашего запроса.


Устранение проблем с установкой и запуском OpenClaw

Модель не отвечает

  • Проверьте конфигурацию вашего файла .env.
  • Проверьте логи контейнеров:
docker compose logs

Ollama недоступен

  • Убедитесь, что Ollama запущен:
ollama list
  • Убедитесь, что базовый URL соответствует вашему окружению.

Неверный API-ключ

  • Двойная проверка ANTHROPIC_API_KEY
  • Перезапустите контейнеры после обновления .env

GPU не используется

  • Убедитесь, что драйверы GPU установлены.
  • Убедитесь, что для Docker включен доступ к GPU.

Следующие шаги после установки OpenClaw

Теперь у вас есть работающий экземпляр OpenClaw.

Отсюда вы можете:

  • Подключить платформы для обмена сообщениями
  • Включить извлечение документов
  • Экспериментировать со стратегиями маршрутизации
  • Добавить наблюдаемость и метрики
  • Настроить производительность и поведение затрат

Более глубокие архитектурные обсуждения имеют больше смысла, когда система уже работает.

Приведение системы в рабочее состояние — это первый шаг.

После запуска следующие статьи станут естественным продолжением:

Для дополнительных кейсов систем искусственного интеллекта см. раздел Системы ИИ.

Подписаться

Получайте новые материалы про системы, инфраструктуру и AI engineering.