OpenClaw Démarrage rapide : Installation avec Docker (Ollama GPU ou Claude + CPU)
Installer OpenClaw localement avec Ollama
OpenClaw est une assistant IA auto-hébergé conçu pour fonctionner avec des runtime LLM locaux comme Ollama ou avec des modèles basés sur le cloud tels que Claude Sonnet.
Ce guide de démarrage rapide montre comment déployer OpenClaw en utilisant Docker, configurer soit un modèle local avec accélération GPU, soit un modèle cloud CPU uniquement, et vérifier que votre assistant IA fonctionne de bout en bout.
Ce guide vous guide à travers une configuration minimale d’OpenClaw afin que vous puissiez le voir fonctionner et répondre sur votre propre machine.
L’objectif est simple :
- Faire fonctionner OpenClaw.
- Envoyer une requête.
- Confirmer que cela fonctionne.
Ce n’est pas un guide de durcissement pour la production.
Ce n’est pas un guide d’optimisation des performances.
C’est un point de départ pratique.
Vous avez deux options :
- Parcours A — GPU local utilisant Ollama (recommandé si vous disposez d’une GPU)
- Parcours B — CPU uniquement utilisant Claude Sonnet 4.6 via l’API Anthropic
Les deux parcours partagent le même processus d’installation de base.

Si vous êtes nouveau sur OpenClaw et souhaitez un aperçu plus approfondi de la structure du système, lisez la vue d’ensemble du système OpenClaw.
Exigences système et configuration de l’environnement
OpenClaw est un système de style assistant qui peut se connecter à des services externes. Pour ce démarrage rapide :
- Utilisez des comptes de test autant que possible.
- Évitez de connecter des systèmes de production sensibles.
- Exécutez-le dans Docker (recommandé).
L’isolation est une bonne valeur par défaut lors de l’expérimentation de logiciels de style agent.
Prérequis OpenClaw (GPU avec Ollama ou CPU avec Claude)
Requis pour les deux parcours
- Git
- Docker Desktop (ou Docker + Docker Compose)
- Un terminal
Pour le Parcours A (GPU local)
- Une machine avec une GPU compatible (NVIDIA ou AMD recommandés)
- Ollama installé
Pour le Parcours B (CPU + Modèle Cloud)
- Une clé API Anthropic
- Accès à Claude Sonnet 4.6
Étape 1 — Installation d’OpenClaw avec Docker (Clonage et Démarrage)
OpenClaw peut être démarré en utilisant Docker Compose. Cela permet de garder la configuration contenue et reproductible.
Cloner le dépôt
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Copier la configuration de l’environnement
cp .env.example .env
Ouvrez .env dans votre éditeur. Nous le configurerons à l’étape suivante en fonction du parcours de modèle choisi.
Démarrer les conteneurs
docker compose up -d
Si tout démarre correctement, vous devriez voir les conteneurs en cours d’exécution :
docker ps
À ce stade, OpenClaw est en cours d’exécution, mais il n’est pas encore connecté à un modèle.
Étape 2 — Configuration du fournisseur LLM (Ollama GPU ou Claude CPU)
Décidez maintenant comment vous souhaitez que l’inférence fonctionne.
Parcours A — GPU local avec Ollama
Si vous disposez d’une GPU disponible, c’est l’option la plus simple et la plus autonome.
Installer ou vérifier Ollama
Si vous avez besoin d’un guide d’installation plus détaillé ou souhaitez configurer les emplacements de stockage des modèles, consultez :
- Installer Ollama et configurer l’emplacement des modèles
- Fiche de référence de la CLI Ollama : ls, serve, run, ps et autres commandes (mise à jour 2026)
Si Ollama n’est pas installé :
curl -fsSL https://ollama.com/install.sh | sh
Vérifiez qu’il fonctionne :
ollama pull llama3
ollama run llama3
Si le modèle répond, l’inférence fonctionne.
Configurer OpenClaw pour utiliser Ollama
Dans votre fichier .env, configurez :
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Redémarrez les conteneurs :
docker compose restart
OpenClaw acheminera désormais les requêtes vers votre instance locale Ollama.
Si vous hésitez sur le modèle à exécuter sur une GPU 16 Go ou souhaitez des comparaisons de benchmarks, consultez :
Pour comprendre la concurrence et le comportement CPU sous charge :
- Comment Ollama gère les requêtes parallèles
- Test : Comment Ollama utilise les performances CPU Intel et les cœurs efficaces
Parcours B — CPU uniquement en utilisant Claude Sonnet 4.6
Si vous ne disposez pas de GPU, vous pouvez utiliser un modèle hébergé.
Ajouter votre clé API
Dans votre fichier .env :
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Redémarrez :
docker compose restart
OpenClaw utilisera désormais Claude Sonnet 4.6 pour l’inférence, tandis que l’orchestration s’exécute localement.
Cette configuration fonctionne bien sur les machines CPU uniquement car le calcul lourd du modèle se produit dans le cloud.
Si vous utilisez les modèles Anthropic ici, ce changement de politique d’abonnement Claude explique pourquoi OpenClaw nécessite une facturation basée sur l’API au lieu de réutiliser un plan Claude.
Étape 3 — Tester OpenClaw avec votre premier prompt
Une fois que les conteneurs sont en cours d’exécution et que le modèle est configuré, vous pouvez tester l’assistant.
Selon votre configuration, cela peut se faire via :
- Une interface web
- Une intégration de messagerie
- Un point de terminaison API local
Pour un test API de base :
curl http://localhost:3000/health
Vous devriez voir une réponse de statut sain.
Envoyez maintenant un prompt simple :
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explain what OpenClaw does in simple terms."}'
Si vous recevez une réponse structurée, le système fonctionne.
Ce que vous venez d’exécuter
À ce stade, vous disposez de :
- Une instance OpenClaw en cours d’exécution
- Un fournisseur LLM configuré (local ou cloud)
- Une boucle de demande-réponse fonctionnelle
Si vous avez choisi le parcours GPU, l’inférence se produit localement via Ollama.
Si vous avez choisi le parcours CPU, l’inférence se produit via Claude Sonnet 4.6, tandis que l’orchestration, le routage et la gestion de la mémoire s’exécutent dans vos conteneurs Docker locaux.
L’interaction visible peut sembler simple. En dessous, plusieurs composants coordonnent pour traiter votre requête.
Dépannage des problèmes d’installation et d’exécution d’OpenClaw
Le modèle ne répond pas
- Vérifiez votre configuration
.env. - Consultez les journaux des conteneurs :
docker compose logs
Ollama inaccessible
- Confirmez qu’Ollama est en cours d’exécution :
ollama list
- Assurez-vous que l’URL de base correspond à votre environnement.
Clé API invalide
- Vérifiez deux fois
ANTHROPIC_API_KEY. - Redémarrez les conteneurs après avoir mis à jour
.env.
La GPU n’est pas utilisée
- Confirmez que les pilotes GPU sont installés.
- Assurez-vous que Docker a l’accès GPU activé.
Prochaines étapes après l’installation d’OpenClaw
Vous disposez maintenant d’une instance OpenClaw fonctionnelle.
D’ici là, vous pouvez :
- Connecter des plateformes de messagerie
- Activer la récupération de documents
- Expérimenter avec des stratégies de routage
- Ajouter l’observabilité et les métriques
- Ajuster les performances et le comportement des coûts
Les discussions architecturales plus approfondies ont plus de sens une fois que le système est en cours d’exécution.
Le rendre opérationnel est la première étape.
Une fois qu’il est en cours d’exécution, les articles suivants sont naturels :
- Guide des plugins OpenClaw — quels plugins installer pour la mémoire, les outils, les canaux et l’observabilité, et comment fonctionne le cycle de vie
- Guide des compétences OpenClaw — quelles compétences valent la peine d’être installées depuis ClawHub et comment les sécuriser par rôle d’agent
- Modèles de configuration de production OpenClaw — comment les plugins et les compétences se combinent pour des types d’utilisateurs réels tels que les développeurs, les équipes d’automatisation, les chercheurs et les opérateurs de support
Pour plus d’études de cas de systèmes IA, consultez la section Systèmes IA.