Déplacer les modèles Ollama vers un autre emplacement
Les fichiers de modèles LLM d'Ollama prennent beaucoup d'espace.
Après l’installation d’Ollama, il est préférable de reconfigurer Ollama pour les stocker immédiatement dans le nouvel emplacement. Ainsi, lorsqu’un nouveau modèle est téléchargé, il ne sera pas enregistré dans l’ancien emplacement.

À propos d’Ollama
Ollama est une interface front-end textuelle pour les modèles d’IA LLM et une API capable d’héberger ces modèles. Pour une comparaison plus large d’Ollama avec vLLM, Docker Model Runner, LocalAI et les fournisseurs cloud — incluant les compromis en matière de coûts et d’infrastructure — consultez Hébergement LLM : Comparaison des infrastructures locales, auto-hébergées et cloud.
Installer Ollama
Rendez-vous sur https://ollama.com/download
Pour installer Ollama sur Linux :
curl -fsSL https://ollama.com/install.sh | sh
Ollama sur Windows est disponible sur la page : https://ollama.com/download/windows Ollama pour Mac est également disponible ici : https://ollama.com/download/macOllamaSetup.exe
Télécharger, lister et supprimer les modèles Ollama
Pour télécharger certains modèles Ollama : Rendez-vous dans la bibliothèque Ollama (https://ollama.com/library) et recherchez le modèle dont vous avez besoin ; vous y trouverez également les balises et les tailles des modèles.
Puis exécutez :
ollama pull gemma2:latest
# Ou obtenez un modèle légèrement plus intelligent qui tient toujours dans 16 Go de VRAM :
ollama pull gemma2:27b-instruct-q3_K_S
# Ou :
ollama pull llama3.1:latest
ollama pull llama3.1:8b-instruct-q8_0
ollama pull mistral-nemo:12b-instruct-2407-q6_K
ollama pull mistral-small:22b-instruct-2409-q4_0
ollama pull phi3:14b-medium-128k-instruct-q6_K
ollama pull qwen2.5:14b-instruct-q5_0
Pour vérifier les modèles dont dispose Ollama dans le référentiel local :
ollama list
Pour supprimer un modèle inutile :
ollama rm qwen2:7b-instruct-q8_0 # par exemple
Emplacement des modèles Ollama
Par défaut, les fichiers de modèle sont stockés dans :
- Windows : C:\Users%username%.ollama\models
- Linux : /usr/share/ollama/.ollama/models
- macOS : ~/.ollama/models
La même préoccupation de stockage apparaît lorsque Ollama s’exécute dans des conteneurs : vous souhaitez que les modèles et l’état du serveur soient sur un volume nommé ou un montage de liaison (et éventuellement OLLAMA_MODELS lorsque la disposition doit différer du chemin par défaut /root/.ollama de l’image officielle). Pour une disposition complète Compose avec réservation GPU, OLLAMA_HOST, des mises à jour et des modèles de retour arrière, consultez Ollama dans Docker Compose avec GPU et stockage persistant des modèles.
Configurer le chemin des modèles Ollama sur Windows
Pour créer une variable d’environnement sur Windows, vous pouvez suivre ces instructions :
- Ouvrez les Paramètres Windows.
- Allez dans Système.
- Sélectionnez À propos.
- Sélectionnez Paramètres système avancés.
- Allez dans l’onglet Avancé.
- Sélectionnez Variables d’environnement….
- Cliquez sur Nouveau…
- Créez une variable nommée OLLAMA_MODELS pointant vers l’endroit où vous souhaitez stocker les modèles.
Déplacer les modèles Ollama sur Linux
Modifiez les paramètres du service systemd ollama :
sudo systemctl edit ollama.service
ou
sudo xed /etc/systemd/system/ollama.service
Cela ouvrira un éditeur.
Pour chaque variable d’environnement, ajoutez une ligne Environment sous la section [Service] :
[Service]
Environment="OLLAMA_MODELS=/specialplace/ollama/models"
Enregistrez et quittez.
Il existe également des paramètres Utilisateur et Groupe qui doivent avoir accès à ce dossier.
Rechargez systemd et redémarrez Ollama :
sudo systemctl daemon-reload
sudo systemctl restart ollama
Si quelque chose s’est mal passé :
systemctl status ollama.service
sudo journalctl -u ollama.service
Surcharge de stockage sur NTFS
Veuillez noter que si vous exécutez Linux et que vous conservez vos modèles sur une partition formatée NTFS, vos modèles se chargeront beaucoup plus lentement — plus de 20 %.

Installer Ollama sur Windows dans un dossier spécifique
Avec les modèles :
.\OllamaSetup.exe /DIR=D:\OllamaDir
Exposer l’API Ollama au réseau interne
“Interne” signifie ici le réseau local.
Ajoutez à la configuration du service :
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Cela expose l’API HTTP non chiffrée sur votre réseau. Pour le HTTPS automatisé, le streaming correct et la mise en cache WebSocket via Caddy ou Nginx, ainsi que le durcissement de bord (délais d’attente, tampons, authentification facultative devant l’API), utilisez Ollama derrière un proxy inversé avec Caddy ou Nginx pour le streaming HTTPS.
Pour accéder à Ollama depuis des appareils distants sans ouvrir de ports publics, utilisez une superposition privée (Tailscale) ou WireGuard ; consultez Accès distant à Ollama via Tailscale ou WireGuard, sans ports publics.
Pour voir comment Ollama s’intègre avec les autres options LLM locales et cloud, consultez notre guide Hébergement LLM : Comparaison des infrastructures locales, auto-hébergées et cloud.
Liens utiles
- Test : Comment Ollama utilise les cœurs de performance et efficaces du CPU Intel
- Comment Ollama gère les requêtes parallèles
- Performance LLM et voies PCIe : Considérations clés
- Comparaison des performances de vitesse LLM
- Comparaison des capacités de résumés des LLM
- Rédaction de prompts efficaces pour les LLM
- Auto-hébergement de Perplexica - avec Ollama
- Fournisseurs de LLM cloud