OpenClaw Quickstart: Installeren met Docker (Ollama GPU of Claude + CPU)

Installeer OpenClaw lokaal met Ollama

Inhoud

OpenClaw is een zelfgehoste AI-assistent die is ontworpen om te draaien met lokale LLM-runtime-omgevingen zoals Ollama of met cloudgebaseerde modellen zoals Claude Sonnet.

Deze quickstart laat zien hoe u OpenClaw kunt implementeren met Docker, een lokaal model met GPU-versnelling of een cloudmodel alleen met CPU kunt configureren en verifieert dat uw AI-assistent van begin tot eind werkt.

Deze gids leidt u door een minimale installatie van OpenClaw, zodat u kunt zien dat het op uw eigen machine draait en reageert.

Het doel is eenvoudig:

  • Laat OpenClaw draaien.
  • Stuur een verzoek.
  • Bevestig dat het werkt.

Dit is geen gids voor productiehardening.
Dit is geen gids voor prestatie-tuning.
Dit is een praktisch startpunt.

U heeft twee opties:

  • Pad A — Lokale GPU met Ollama (aanbevolen als u een GPU heeft)
  • Pad B — Alleen CPU met Claude Sonnet 4.6 via de Anthropic API

Beide paden delen hetzelfde kerninstallatieproces.

install openclaw steps GPU vs CPU

Als u nieuw bent bij OpenClaw en een dieper overzicht wilt van hoe het systeem is gestructureerd, lees dan het OpenClaw-systeemoverzicht.

Systeemeisen en omgeving configureren

OpenClaw is een assisistent-stijlsysteem dat verbinding kan maken met externe diensten. Voor deze Quickstart:

  • Gebruik waar mogelijk testaccounts.
  • Vermijd het verbinden van gevoelige productiesystemen.
  • Voer het uit in Docker (aanbevolen).

Isolatie is een goede standaardinstelling bij het experimenteren met agent-stijl software.


OpenClaw vereisten (GPU met Ollama of CPU met Claude)

Vereist voor beide paden

  • Git
  • Docker Desktop (of Docker + Docker Compose)
  • Een terminal

Voor Pad A (Lokale GPU)

  • Een machine met een compatibele GPU (NVIDIA of AMD wordt aanbevolen)
  • Ollama geïnstalleerd

Voor Pad B (CPU + Cloudmodel)

  • Een Anthropic API-sleutel
  • Toegang tot Claude Sonnet 4.6

Stap 1 — OpenClaw installeren met Docker (Kloon & Start)

OpenClaw kan worden gestart met Docker Compose. Dit houdt de opstelling ingesloten en reproduceerbaar.

Kloon de repository

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Kopieer de omgevingconfiguratie

cp .env.example .env

Open .env in uw editor. We zullen het in de volgende stap configureren, afhankelijk van welk modelpad u kiest.

Start de containers

docker compose up -d

Als alles correct start, zou u containers moeten zien draaien:

docker ps

Op dit moment draait OpenClaw — maar het is nog niet verbonden met een model.


Stap 2 — LLM-provider configureren (Ollama GPU of Claude CPU)

Beslis nu hoe u wilt dat inferentie plaatsvindt.


Pad A — Lokale GPU met Ollama

Als u een GPU beschikbaar heeft, is dit de eenvoudigste en meest zelfstandige optie.

Installeer of verifieer Ollama

Als u een gedetailleerdere installatiegids nodig heeft of de locaties voor modelopslag wilt configureren, zie:

Als Ollama niet is geïnstalleerd:

curl -fsSL https://ollama.com/install.sh | sh

Verifieer dat het werkt:

ollama pull llama3
ollama run llama3

Als het model reageert, werkt de inferentie.

Configureer OpenClaw om Ollama te gebruiken

In uw .env-bestand, configureer:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Herstart de containers:

docker compose restart

OpenClaw zal nu verzoeken doorsturen naar uw lokale Ollama-instantie.

Als u beslist welk model u op een 16GB VRAM GPU wilt draaien of benchmarkvergelijkingen wilt, zie:

Om concurrentie en CPU-gedrag onder belasting te begrijpen:


Pad B — Alleen CPU met Claude Sonnet 4.6

Als u geen GPU heeft, kunt u een gehost model gebruiken.

Voeg uw API-sleutel toe

In uw .env-bestand:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Herstart:

docker compose restart

OpenClaw zal nu Claude Sonnet 4.6 gebruiken voor inferentie, terwijl de orchestratie lokaal draait.

Deze opstelling werkt goed op machines met alleen CPU, omdat de zware modelberekeningen in de cloud plaatsvinden.

Als u hier Anthropic-modellen gebruikt, dit beleidswijziging voor Claude-abonnementen legt uit waarom OpenClaw API-gebaseerde facturering vereist in plaats van het hergebruik van een Claude-abonnement.


Stap 3 — Test OpenClaw met uw eerste prompt

Zodra de containers draaien en het model is geconfigureerd, kunt u de assistent testen.

Afhankelijk van uw opstelling kan dit via:

  • Een webinterface
  • Een messaging-integratie
  • Een lokaal API-eindpunt

Voor een basis API-test:

curl http://localhost:3000/health

U zou een gezond statusrespons moeten zien.

Stuur nu een eenvoudige prompt:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Leg uit wat OpenClaw doet in eenvoudige termen."}'

Als u een gestructureerd antwoord ontvangt, werkt het systeem.


Wat u net hebt uitgevoerd

Op dit moment heeft u:

  • Een draaiende OpenClaw-instantie
  • Een geconfigureerde LLM-provider (lokaal of cloud)
  • Een werkende verzoek-responslus

Als u het GPU-pad heeft gekozen, vindt inferentie lokaal plaats via Ollama.

Als u het CPU-pad heeft gekozen, vindt inferentie plaats via Claude Sonnet 4.6, terwijl orchestratie, routing en geheugenbeheer binnen uw lokale Docker-containers draaien.

De zichtbare interactie kan er eenvoudig uitzien. Daaronder coördineren meerdere componenten om uw verzoek te verwerken.


Probleemoplossing voor OpenClaw-installatie en runtime-problemen

Model reageert niet

  • Verifieer uw .env-configuratie.
  • Controleer de containerlogs:
docker compose logs

Ollama niet bereikbaar

  • Bevestig dat Ollama draait:
ollama list
  • Zorg ervoor dat de basis-URL overeenkomt met uw omgeving.

Ongeldige API-sleutel

  • Dubbelcheck ANTHROPIC_API_KEY
  • Herstart de containers na het bijwerken van .env

GPU wordt niet gebruikt

  • Bevestig dat GPU-drivers zijn geïnstalleerd.
  • Zorg ervoor dat Docker GPU-toegang heeft ingeschakeld.

Volgende stappen na het installeren van OpenClaw

U heeft nu een werkende OpenClaw-instantie.

Vanaf hier kunt u:

  • Messaging-platforms verbinden
  • Documentophaalfunctionaliteit inschakelen
  • Experimenteren met routingstrategieën
  • Waarnemingsmogelijkheden en metrieken toevoegen
  • Prestaties en kosten gedrag afstemmen

De diepergaande architectonische discussies maken meer zin zodra het systeem draait.

Het operationeel krijgen is de eerste stap.

Voor meer AI-systemen casestudies, zie het AI-systemen gedeelte.