OpenClaw クイックスタート:Docker を使用したインストール(Ollama GPU または Claude + CPU)

Ollama を使用して OpenClaw をローカルにインストールする

目次

OpenClaw は、Ollama などのローカル LLM ランタイム、または Claude Sonnet などのクラウドベースモデルと連携して動作するように設計された、セルフホスト型の AI アシスタントです。

このクイックスタートガイドでは、Docker を使用して OpenClaw をデプロイし、GPU 搭載のローカルモデル、または CPU 専用のクラウドモデルを設定し、AI アシスタントがエンドツーエンドで正常に動作していることを確認する方法を示します。

このガイドでは、OpenClaw の最小限の設定手順を説明し、ご自身のマシン上で動作し、レスポンスを返す状態を確認します。

目標はシンプルです。

  • OpenClaw を動作させる
  • リクエストを送信する
  • 正常に動作することを確認する

これは本番環境での堅牢化ガイドではありません。 パフォーマンスチューニングガイドでもありません。 実用的なスタートポイントです。

2 つの選択肢があります。

  • パス A — ローカル GPU: Ollama を使用(GPU がある場合推奨)
  • パス B — CPU 専用: Anthropic API を介した Claude Sonnet 4.6 を使用

両方のパスにおいて、基本的なインストールプロセスは共通です。

install openclaw steps GPU vs CPU

OpenClaw が初めてで、システムの構造についてより深い概要を知りたい場合は、OpenClaw システム概要 をお読みください。

システム要件と環境設定

OpenClaw は外部サービスに接続できるアシスタント型システムです。このクイックスタートでは以下の点に注意してください。

  • 可能な限りテストアカウントを使用する
  • 機密性の高い本番システムへの接続は避ける
  • Docker 内で実行する(推奨)

エージェント型ソフトウェアを実験する際は、分離(隔離)をデフォルトにすることが推奨されます。


OpenClaw の前提条件(GPU と Ollama、または CPU と Claude)

両方のパスで必要なもの

  • Git
  • Docker Desktop(または Docker + Docker Compose)
  • ターミナル

パス A(ローカル GPU)用

  • 互換性のある GPU が搭載されたマシン(NVIDIA または AMD が推奨)
  • Ollama のインストール

パス B(CPU + クラウドモデル)用

  • Anthropic API キー
  • Claude Sonnet 4.6 へのアクセス権

ステップ 1 — Docker を使用して OpenClaw をインストール(クローンと起動)

OpenClaw は Docker Compose を使用して起動できます。これにより、設定が整理され、再現性が高まります。

リポジトリのクローン

git clone https://github.com/openclaw/openclaw.git
cd openclaw

環境設定のコピー

cp .env.example .env

エディタで .env ファイルを開いてください。次のステップで、選択したモデルのパスに応じて設定を行います。

コンテナの起動

docker compose up -d

すべてが正常に起動した場合、コンテナが実行中であることが表示されます。

docker ps

この段階では OpenClaw が動作していますが、まだモデルには接続されていません。


ステップ 2 — LLM プロバイダーの設定(Ollama GPU または Claude CPU)

次に、推論をどのように行いたいかを決定します。


パス A — Ollama を使用したローカル GPU

GPU が利用可能な場合、これが最もシンプルで自己完結型のオプションです。

Ollama のインストールまたは確認

より詳細なインストールガイドが必要な場合、またはモデルの保存場所を設定したい場合は、以下の記事を参照してください。

Ollama がインストールされていない場合:

curl -fsSL https://ollama.com/install.sh | sh

動作を確認します。

ollama pull llama3
ollama run llama3

モデルがレスポンスを返せば、推論機能が正常に動作しています。

OpenClaw の Ollama 利用設定

.env ファイルで以下を設定します。

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

コンテナを再起動します。

docker compose restart

これで、OpenClaw はローカルの Ollama インスタンスへリクエストをルーティングします。

16GB の GPU でどのモデルを実行するかを検討している場合、またはベンチマーク比較が必要な場合は、以下の記事を参照してください。

並行処理と負荷下での CPU 動作を理解するために:


パス B — Claude Sonnet 4.6 を使用した CPU 専用

GPU がない場合、ホストされたモデルを使用できます。

API キーの追加

.env ファイルで以下を設定します。

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

再起動します。

docker compose restart

これで、OpenClaw は推論に Claude Sonnet 4.6 を使用し、オーケストレーションはローカルで実行されます。

この設定は CPU 専用マシンでも機能します。重いモデル計算はクラウド上で行われるためです。

ここで Anthropic モデルを使用している場合、この Claude サブスクリプションポリシーの変更 について、OpenClaw が Claude プランの再利用ではなく API ベースの課金が必要となる理由が説明されています。


ステップ 3 — 最初のプロンプトで OpenClaw をテスト

コンテナが実行され、モデルが設定されたら、アシスタントをテストできます。

設定によっては、以下のいずれかを通じてテストできます。

  • ウェブインターフェース
  • メッセージング統合
  • ローカル API エンドポイント

基本的な API テストの場合:

curl http://localhost:3000/health

正常なステータスのレスポンスが表示されるはずです。

次に、シンプルなプロンプトを送信します。

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

構造化されたレスポンスが返ってきた場合、システムは正常に動作しています。


実行した内容のまとめ

この時点で、以下の状態が整っています。

  • 実行中の OpenClaw インスタンス
  • 設定済みの LLM プロバイダー(ローカルまたはクラウド)
  • 正常に動作するリクエスト - レスポンスループ

GPU パスをเลือกした場合、推論は Ollama を介してローカルで行われます。

CPU パスを选择了の場合、推論は Claude Sonnet 4.6 を介して行われ、オーケストレーション、ルーティング、メモリ処理はローカルの Docker コンテナ内で実行されます。

見える相互作用はシンプルに見えるかもしれませんが、その背後では複数のコンポーネントが協調してリクエストを処理しています。


OpenClaw のインストールとランタイムの問題のトラブルシューティング

モデルがレスポンスしない場合

  • .env 設定を確認する
  • コンテナログを確認する:
docker compose logs

Ollama に接続できない場合

  • Ollama が実行中であることを確認する:
ollama list
  • ベース URL が環境と一致していることを確認する

API キーが無効な場合

  • ANTHROPIC_API_KEY を再確認する
  • .env を更新した後、コンテナを再起動する

GPU が使用されていない場合

  • GPU ドライバーがインストールされていることを確認する
  • Docker が GPU アクセスを有効化していることを確認する

OpenClaw インストール後の次のステップ

これで、動作する OpenClaw インスタンスが整いました。

ここから、以下のことができます。

  • メッセージングプラットフォームへの接続
  • ドキュメント検索の啟用
  • ルーティング戦略の実験
  • 可観測性とメトリクスの追加
  • パフォーマンスとコスト動作のチューニング

システムが動作し始めてからの方が、深いアーキテクチャの議論はより意味をなします。

稼働させることが最初のステップです。

稼働した後、自然な次の記事は以下の通りです。

  • OpenClaw プラグインガイド — メモリ、ツール、チャネル、可観測性のためにどのプラグインをインストールすべきか、ライフサイクルの仕組みについて
  • OpenClaw スキルガイド — ClawHub からどのスキルをインストールすべきか、エージェントの役割ごとに安全にゲートする方法について
  • OpenClaw 本番環境設定パターン — 開発者、自動化チーム、研究者、サポートオペレーターなどの実際のユーザータイプ向けに、プラグインとスキルを組み合わせて信頼性、ワークフロー、スケールを実現するアーキテクチャパターンについて

さらに AI システムの事例については、AI システム セクションを参照してください。

購読する

システム、インフラ、AIエンジニアリングの新記事をお届けします。