OpenClaw Quickstart: Mit Docker installieren (Ollama GPU oder Claude CPU)

Installieren Sie OpenClaw lokal mit Ollama

Inhaltsverzeichnis

OpenClaw ist ein selbstgehosteter KI-Assistent, der mit lokalen LLM-Runtime-Umgebungen wie Ollama oder mit cloudbasierten Modellen wie Claude Sonnet laufen kann.

Dieser Quickstart zeigt, wie Sie OpenClaw mit Docker bereitstellen, entweder ein GPU-gestütztes lokales Modell oder ein CPU-only-Modell im Cloud-Modell konfigurieren und sicherstellen, dass Ihr KI-Assistent end-to-end funktioniert.

Dieser Leitfaden führt Sie durch eine minimale Einrichtung von OpenClaw, damit Sie sehen können, wie es auf Ihrem eigenen Rechner läuft und auf Anfragen reagiert.

Das Ziel ist einfach:

  • OpenClaw starten.
  • Eine Anfrage senden.
  • Bestätigen, dass es funktioniert.

Dies ist kein Leitfaden zur Produktionsverfestigung.
Dies ist kein Leitfaden zur Leistungsfeinabstimmung.
Dies ist ein praktischer Ausgangspunkt.

Sie haben zwei Optionen:

  • Pfad A — Lokale GPU mit Ollama (empfohlen, wenn Sie eine GPU haben)
  • Pfad B — Nur CPU mit Claude Sonnet 4.6 über die Anthropic API

Beide Pfade verwenden denselben Kerninstallationsschritt.

install openclaw steps GPU vs CPU

Wenn Sie OpenClaw neu sind und eine tiefere Übersicht über die Struktur des Systems möchten, lesen Sie den OpenClaw-Systemüberblick.

Systemanforderungen und Umgebungseinrichtung

OpenClaw ist ein assistenzähnliches System, das sich mit externen Diensten verbinden kann. Für diesen Quickstart:

  • Nutzen Sie bei Gelegenheit Testkonten.
  • Vermeiden Sie die Verbindung sensibler Produktionsysteme.
  • Führen Sie es innerhalb von Docker aus (empfohlen).

Isolierung ist eine gute Voreinstellung, wenn man mit agentenähnlicher Software experimentiert.


OpenClaw-Voraussetzungen (GPU mit Ollama oder CPU mit Claude)

Erforderlich für beide Pfade

  • Git
  • Docker Desktop (oder Docker + Docker Compose)
  • Ein Terminal

Für Pfad A (Lokale GPU)

  • Ein Gerät mit einer kompatiblen GPU (NVIDIA oder AMD empfohlen)
  • Ollama installiert

Für Pfad B (Nur CPU + Cloud-Modell)

  • Ein Anthropic-API-Schlüssel
  • Zugriff auf Claude Sonnet 4.6

Schritt 1 — OpenClaw mit Docker installieren (Klonen & Starten)

OpenClaw kann mit Docker Compose gestartet werden. Dies hält die Einrichtung isoliert und reproduzierbar.

Repository klonen

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Umgebungs-Konfiguration kopieren

cp .env.example .env

Öffnen Sie .env in Ihrem Editor. Wir konfigurieren ihn im nächsten Schritt je nach gewähltem Modellpfad.

Container starten

docker compose up -d

Wenn alles korrekt gestartet wird, sollten Sie laufende Container sehen:

docker ps

In diesem Stadium läuft OpenClaw — es ist jedoch noch nicht mit einem Modell verbunden.


Schritt 2 — LLM-Anbieter konfigurieren (Ollama GPU oder Claude CPU)

Jetzt entscheiden Sie, wie Sie die Inferenz durchführen möchten.


Pfad A — Lokale GPU mit Ollama

Wenn Sie eine GPU zur Verfügung haben, ist dies die einfachste und am selbstständigste Option.

Ollama installieren oder überprüfen

Wenn Sie einen detaillierteren Installationsleitfaden benötigen oder die Konfiguration von Modell-Speicherorten vornehmen möchten, sehen Sie sich an:

Wenn Ollama nicht installiert ist:

curl -fsSL https://ollama.com/install.sh | sh

Überprüfen Sie, ob es funktioniert:

ollama pull llama3
ollama run llama3

Wenn das Modell antwortet, funktioniert die Inferenz.

OpenClaw konfigurieren, um Ollama zu verwenden

In Ihrer .env-Datei konfigurieren Sie:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Starten Sie die Container neu:

docker compose restart

OpenClaw wird nun Anfragen an Ihre lokale Ollama-Instanz weiterleiten.

Wenn Sie entscheiden, welches Modell auf einer 16-GB-GPU zu laufen hat oder Benchmark-Vergleiche wünschen, sehen Sie sich an:

Um Konkurrenz und CPU-Verhalten unter Last zu verstehen:


Pfad B — Nur CPU mit Claude Sonnet 4.6

Wenn Sie keine GPU haben, können Sie ein gehostetes Modell verwenden.

Ihren API-Schlüssel hinzufügen

In Ihrer .env-Datei:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Neustarten:

docker compose restart

OpenClaw wird nun Claude Sonnet 4.6 für die Inferenz verwenden, während die Orchestrierung lokal läuft.

Diese Einrichtung funktioniert gut auf Maschinen mit nur CPU, da die schwere Modellrechnung in der Cloud stattfindet.


Schritt 3 — OpenClaw mit Ihrem ersten Prompt testen

Sobald die Container laufen und das Modell konfiguriert ist, können Sie den Assistenten testen.

Je nach Einrichtung kann dies über folgende Wege erfolgen:

  • Eine Web-Oberfläche
  • Eine Messaging-Integration
  • Ein lokaler API-Endpunkt

Für einen grundlegenden API-Test:

curl http://localhost:3000/health

Sie sollten eine Gesundheitsstatusantwort sehen.

Senden Sie nun einen einfachen Prompt:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Erkläre einfach, was OpenClaw tut."}'

Wenn Sie eine strukturierte Antwort erhalten, funktioniert das System.


Was Sie gerade ausgeführt haben

In diesem Moment haben Sie:

  • Eine laufende OpenClaw-Instanz
  • Einen konfigurierten LLM-Anbieter (lokal oder in der Cloud)
  • Eine funktionierende Anfrage-Antwort-Schleife

Wenn Sie den GPU-Pfad gewählt haben, erfolgt die Inferenz lokal über Ollama.

Wenn Sie den CPU-Pfad gewählt haben, erfolgt die Inferenz über Claude Sonnet 4.6, während Orchestrierung, Routing und Speicherverwaltung in Ihren lokalen Docker-Containern laufen.

Die sichtbare Interaktion mag einfach wirken. Unter der Oberfläche koordinieren mehrere Komponenten, um Ihre Anfrage zu verarbeiten.


Fehlerbehebung bei der Installation und Laufzeitproblemen von OpenClaw

Modell reagiert nicht

  • Überprüfen Sie Ihre .env-Konfiguration.
  • Prüfen Sie die Containerprotokolle:
docker compose logs

Ollama ist nicht erreichbar

  • Bestätigen Sie, dass Ollama läuft:
ollama list
  • Stellen Sie sicher, dass die Basis-URL mit Ihrer Umgebung übereinstimmt.

Ungültiger API-Schlüssel

  • Prüfen Sie ANTHROPIC_API_KEY erneut.
  • Starten Sie die Container erneut, nachdem Sie .env aktualisiert haben.

GPU wird nicht genutzt

  • Bestätigen Sie, dass die GPU-Treiber installiert sind.
  • Stellen Sie sicher, dass Docker Zugriff auf die GPU hat.

Nächste Schritte nach der Installation von OpenClaw

Sie haben nun eine funktionierende OpenClaw-Instanz.

Von hier aus können Sie:

  • Messaging-Plattformen verbinden
  • Dokumenterstellung aktivieren
  • Routing-Strategien testen
  • Beobachtbarkeit und Metriken hinzufügen
  • Leistung und Kostenverhalten abstimmen

Die tiefgehenden architektonischen Diskussionen ergeben mehr Sinn, sobald das System läuft.

Es ist der erste Schritt, es operational zu machen.