Déplacer les modèles Ollama vers un autre emplacement

Les fichiers de modèles LLM d'Ollama prennent beaucoup d'espace.

Sommaire

Après l’installation d’Ollama, il est préférable de reconfigurer Ollama pour les stocker immédiatement dans le nouvel emplacement. Ainsi, lorsqu’un nouveau modèle est téléchargé, il ne sera pas enregistré dans l’ancien emplacement.

Llama intelligent portant un chapeau qui fait quelque chose dans la salle serveur

À propos d’Ollama

Ollama est une interface front-end textuelle pour les modèles d’IA LLM et une API capable d’héberger ces modèles. Pour une comparaison plus large d’Ollama avec vLLM, Docker Model Runner, LocalAI et les fournisseurs cloud — incluant les compromis en matière de coûts et d’infrastructure — consultez Hébergement LLM : Comparaison des infrastructures locales, auto-hébergées et cloud.

Installer Ollama

Rendez-vous sur https://ollama.com/download

Pour installer Ollama sur Linux :

curl -fsSL https://ollama.com/install.sh | sh

Ollama sur Windows est disponible sur la page : https://ollama.com/download/windows Ollama pour Mac est également disponible ici : https://ollama.com/download/macOllamaSetup.exe

Télécharger, lister et supprimer les modèles Ollama

Pour télécharger certains modèles Ollama : Rendez-vous dans la bibliothèque Ollama (https://ollama.com/library) et recherchez le modèle dont vous avez besoin ; vous y trouverez également les balises et les tailles des modèles.

Puis exécutez :

ollama pull gemma2:latest

# Ou obtenez un modèle légèrement plus intelligent qui tient toujours dans 16 Go de VRAM :
ollama pull gemma2:27b-instruct-q3_K_S

# Ou : 
ollama pull llama3.1:latest
ollama pull llama3.1:8b-instruct-q8_0
ollama pull mistral-nemo:12b-instruct-2407-q6_K
ollama pull mistral-small:22b-instruct-2409-q4_0
ollama pull phi3:14b-medium-128k-instruct-q6_K
ollama pull qwen2.5:14b-instruct-q5_0

Pour vérifier les modèles dont dispose Ollama dans le référentiel local :

ollama list

Pour supprimer un modèle inutile :

ollama rm qwen2:7b-instruct-q8_0 # par exemple

Emplacement des modèles Ollama

Par défaut, les fichiers de modèle sont stockés dans :

  • Windows : C:\Users%username%.ollama\models
  • Linux : /usr/share/ollama/.ollama/models
  • macOS : ~/.ollama/models

La même préoccupation de stockage apparaît lorsque Ollama s’exécute dans des conteneurs : vous souhaitez que les modèles et l’état du serveur soient sur un volume nommé ou un montage de liaison (et éventuellement OLLAMA_MODELS lorsque la disposition doit différer du chemin par défaut /root/.ollama de l’image officielle). Pour une disposition complète Compose avec réservation GPU, OLLAMA_HOST, des mises à jour et des modèles de retour arrière, consultez Ollama dans Docker Compose avec GPU et stockage persistant des modèles.

Configurer le chemin des modèles Ollama sur Windows

Pour créer une variable d’environnement sur Windows, vous pouvez suivre ces instructions :

  • Ouvrez les Paramètres Windows.
  • Allez dans Système.
  • Sélectionnez À propos.
  • Sélectionnez Paramètres système avancés.
  • Allez dans l’onglet Avancé.
  • Sélectionnez Variables d’environnement….
  • Cliquez sur Nouveau…
  • Créez une variable nommée OLLAMA_MODELS pointant vers l’endroit où vous souhaitez stocker les modèles.

Déplacer les modèles Ollama sur Linux

Modifiez les paramètres du service systemd ollama :

sudo systemctl edit ollama.service

ou

sudo xed /etc/systemd/system/ollama.service

Cela ouvrira un éditeur.

Pour chaque variable d’environnement, ajoutez une ligne Environment sous la section [Service] :

[Service]
Environment="OLLAMA_MODELS=/specialplace/ollama/models"

Enregistrez et quittez.

Il existe également des paramètres Utilisateur et Groupe qui doivent avoir accès à ce dossier.

Rechargez systemd et redémarrez Ollama :

sudo systemctl daemon-reload
sudo systemctl restart ollama

Si quelque chose s’est mal passé :

systemctl status ollama.service
sudo journalctl -u ollama.service

Surcharge de stockage sur NTFS

Veuillez noter que si vous exécutez Linux et que vous conservez vos modèles sur une partition formatée NTFS, vos modèles se chargeront beaucoup plus lentement — plus de 20 %.

ntfs.mount cpu usage

Installer Ollama sur Windows dans un dossier spécifique

Avec les modèles :

.\OllamaSetup.exe /DIR=D:\OllamaDir

Exposer l’API Ollama au réseau interne

“Interne” signifie ici le réseau local.

Ajoutez à la configuration du service :

[Service]
Environment="OLLAMA_HOST=0.0.0.0"

Cela expose l’API HTTP non chiffrée sur votre réseau. Pour le HTTPS automatisé, le streaming correct et la mise en cache WebSocket via Caddy ou Nginx, ainsi que le durcissement de bord (délais d’attente, tampons, authentification facultative devant l’API), utilisez Ollama derrière un proxy inversé avec Caddy ou Nginx pour le streaming HTTPS.

Pour accéder à Ollama depuis des appareils distants sans ouvrir de ports publics, utilisez une superposition privée (Tailscale) ou WireGuard ; consultez Accès distant à Ollama via Tailscale ou WireGuard, sans ports publics.

Pour voir comment Ollama s’intègre avec les autres options LLM locales et cloud, consultez notre guide Hébergement LLM : Comparaison des infrastructures locales, auto-hébergées et cloud.

Liens utiles

S'abonner

Recevez de nouveaux articles sur les systèmes, l'infrastructure et l'ingénierie IA.