OpenClaw Schnellstart: Installation mit Docker (Ollama GPU oder Claude + CPU)

Installieren Sie OpenClaw lokal mit Ollama

Inhaltsverzeichnis

OpenClaw ist ein selbst gehosteter KI-Assistent, der mit lokalen LLM-Runtimes wie Ollama oder mit cloud-basierten Modellen wie Claude Sonnet ausgeführt werden kann.

Dieser Schnellstart zeigt, wie OpenClaw mit Docker bereitgestellt wird, entweder ein GPU-gestütztes lokales Modell oder ein CPU-only-Cloud-Modell konfiguriert wird und wie sichergestellt wird, dass Ihr KI-Assistent von Anfang bis Ende funktioniert.

Dieser Leitfaden führt Sie durch eine minimale Einrichtung von OpenClaw, damit Sie sehen können, wie es auf Ihrem eigenen Gerät läuft und reagiert.

Das Ziel ist einfach:

  • OpenClaw zum Laufen bringen.
  • Eine Anfrage stellen.
  • Bestätigen, dass es funktioniert.

Dies ist kein Leitfaden zur Produktionshärtung. Dies ist kein Leitfaden zur Leistungsoptimierung. Dies ist ein praktischer Startpunkt.

Sie haben zwei Optionen:

  • Pfad A – Lokale GPU mit Ollama (empfohlen, wenn Sie eine GPU haben)
  • Pfad B – CPU-only mit Claude Sonnet 4.6 über die Anthropic API

Beide Pfade teilen denselben Kern der Installationsprozess.

install openclaw steps GPU vs CPU

Wenn Sie neu bei OpenClaw sind und eine tiefere Übersicht darüber wünschen, wie das System strukturiert ist, lesen Sie die OpenClaw-Systemübersicht.

Systemanforderungen und Umgebungseinrichtung

OpenClaw ist ein Assistenten-System, das sich mit externen Diensten verbinden kann. Für diesen Schnellstart:

  • Verwenden Sie nach Möglichkeit Testkonten.
  • Vermeiden Sie die Verbindung sensibler Produktionssysteme.
  • Führen Sie es in Docker aus (empfohlen).

Isolation ist eine gute Standardoption beim Experimentieren mit agentenbasierten Softwarelösungen.


OpenClaw-Voraussetzungen (GPU mit Ollama oder CPU mit Claude)

Für beide Pfade erforderlich

  • Git
  • Docker Desktop (oder Docker + Docker Compose)
  • Eine Terminalkonsole

Für Pfad A (Lokale GPU)

  • Ein Gerät mit einer kompatiblen GPU (NVIDIA oder AMD empfohlen)
  • Ollama installiert

Für Pfad B (CPU + Cloud-Modell)

  • Ein Anthropic-API-Schlüssel
  • Zugriff auf Claude Sonnet 4.6

Schritt 1 – OpenClaw mit Docker installieren (Klonen & Starten)

OpenClaw kann mit Docker Compose gestartet werden. Dies hält die Einrichtung enthalten und reproduzierbar.

Repository klonen

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Umgebungs konfigurierung kopieren

cp .env.example .env

Öffnen Sie .env in Ihrem Editor. Wir werden es im nächsten Schritt konfigurieren, abhängig davon, welchen Modellpfad Sie wählen.

Container starten

docker compose up -d

Wenn alles korrekt startet, sollten Sie laufende Container sehen:

docker ps

Zu diesem Zeitpunkt ist OpenClaw zwar im Betrieb, aber noch nicht mit einem Modell verbunden.


Schritt 2 – LLM-Anbieter konfigurieren (Ollama GPU oder Claude CPU)

Entscheiden Sie nun, wie die Inferenz funktionieren soll.


Pfad A – Lokale GPU mit Ollama

Wenn eine GPU verfügbar ist, ist dies die einfachste und am meisten eigenständige Option.

Ollama installieren oder überprüfen

Wenn Sie einen detaillierteren Installationsleitfaden benötigen oder Speicherorte für Modelle konfigurieren möchten, sehen Sie:

Wenn Ollama nicht installiert ist:

curl -fsSL https://ollama.com/install.sh | sh

Überprüfen Sie, ob es funktioniert:

ollama pull llama3
ollama run llama3

Wenn das Modell reagiert, funktioniert die Inferenz.

OpenClaw für die Nutzung von Ollama konfigurieren

Konfigurieren Sie in Ihrer .env-Datei:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Starten Sie die Container neu:

docker compose restart

OpenClaw leitet Anfragen nun an Ihre lokale Ollama-Instanz weiter.

Wenn Sie entscheiden, welches Modell auf einer GPU mit 16 GB VRAM laufen soll, oder Benchmarks vergleichen möchten, sehen Sie:

Um Parallelität und CPU-Verhalten unter Last zu verstehen:


Pfad B – CPU-only mit Claude Sonnet 4.6

Wenn Sie keine GPU haben, können Sie ein gehostetes Modell verwenden.

API-Schlüssel hinzufügen

In Ihrer .env-Datei:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Neustart durchführen:

docker compose restart

OpenClaw verwendet nun Claude Sonnet 4.6 für die Inferenz, während die Orchestrierung lokal läuft.

Diese Einrichtung funktioniert gut auf CPU-only-Geräten, da die schwere Modellberechnung in der Cloud stattfindet.

Wenn Sie hier Anthropic-Modelle verwenden, erklärt diese Änderung der Claude-Abonnementrichtlinie warum OpenClaw eine API-basierte Abrechnung erfordert anstatt die Wiederverwendung von Claude-Abonnementplänen.


Schritt 3 – OpenClaw mit Ihrer ersten Eingabe testen

Sobald die Container laufen und das Modell konfiguriert ist, können Sie den Assistenten testen.

Je nach Einrichtung kann dies erfolgen über:

  • Eine Weboberfläche
  • Eine Messaging-Integration
  • Eine lokale API-Endpunkt

Für einen grundlegenden API-Test:

curl http://localhost:3000/health

Sie sollten eine Antwort mit gesundem Status sehen.

Senden Sie nun eine einfache Eingabe:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

Wenn Sie eine strukturierte Antwort erhalten, funktioniert das System.


Was Sie gerade ausgeführt haben

An diesem Punkt haben Sie:

  • Eine laufende OpenClaw-Instanz
  • Einen konfigurierten LLM-Anbieter (lokal oder Cloud)
  • Einen funktionierenden Anfrage-Antwort-Zyklus

Wenn Sie den GPU-Pfad gewählt haben, findet die Inferenz lokal über Ollama statt.

Wenn Sie den CPU-Pfad gewählt haben, findet die Inferenz über Claude Sonnet 4.6 statt, während Orchestrierung, Routing und Speicherverwaltung in Ihren lokalen Docker-Containern laufen.

Die sichtbare Interaktion mag einfach aussehen. Darunter koordinieren mehrere Komponenten, um Ihre Anfrage zu verarbeiten.


Fehlerbehebung bei OpenClaw-Installation und Laufzeitproblemen

Modell reagiert nicht

  • Überprüfen Sie Ihre .env-Konfiguration.
  • Prüfen Sie die Container-Logs:
docker compose logs

Ollama nicht erreichbar

  • Bestätigen Sie, dass Ollama läuft:
ollama list
  • Stellen Sie sicher, dass die Basis-URL mit Ihrer Umgebung übereinstimmt.

Ungültiger API-Schlüssel

  • Überprüfen Sie ANTHROPIC_API_KEY erneut.
  • Starten Sie die Container nach der Aktualisierung von .env neu.

GPU wird nicht genutzt

  • Bestätigen Sie, dass GPU-Treiber installiert sind.
  • Stellen Sie sicher, dass Docker GPU-Zugriff aktiviert hat.

Nächste Schritte nach der Installation von OpenClaw

Sie haben nun eine funktionierende OpenClaw-Instanz.

Von hier aus können Sie:

  • Messaging-Plattformen verbinden
  • Dokumentabruf aktivieren
  • Routing-Strategien testen
  • Observability und Metriken hinzufügen
  • Leistung und Kostenverhalten optimieren

Die tiefergehenden architektonischen Diskussionen ergeben mehr Sinn, sobald das System läuft.

Das Inbetriebnahme ist der erste Schritt.

Sobald es läuft, sind die natürlichen nächsten Artikel:

  • OpenClaw-Plugins-Leitfaden – welche Plugins für Speicher, Tools, Kanäle und Observability installiert werden sollen und wie der Lebenszyklus funktioniert
  • OpenClaw-Fähigkeiten-Leitfaden – welche Fähigkeiten sich von ClawHub lohnen, und wie sie sicher pro Agentenrolle eingeschränkt werden können
  • OpenClaw-Produktions-Einrichtungs-Muster – wie Plugins und Fähigkeiten für echte Nutzertypen wie Entwickler, Automatisierungsteams, Forscher und Support-Operatoren kombiniert werden

Für weitere Fallstudien zu KI-Systemen sehen Sie den Bereich KI-Systeme.

Abonnieren

Neue Beiträge zu Systemen, Infrastruktur und KI-Engineering.