Flytta Ollama-modeller till en annan plats

Ollama LLM-modellfiler tar mycket plats.

Sidinnehåll

Efter att ha installerat Ollama är det bättre att omedelbart omkonfigurera Ollama så att den lagrar modellerna på en ny plats. Så när vi drar ner en ny modell, laddas den inte ner till den gamla platsen.

Smart llama i hatt gör något på serverrummet

Om Ollama

Ollama är ett textbaserat gränssnitt för LLM AI-modeller och en API som också kan värd dessa. För en bredare jämförelse av Ollama med vLLM, Docker Model Runner, LocalAI och molnleverantörer – inklusive kostnader och infrastrukturmotsättningar – se LLM-värd: Lokalt, Self-Hosted & Molninfrastruktur jämfört.

Installera Ollama

Gå till https://ollama.com/download

För att installera Ollama på Linux:

curl -fsSL https://ollama.com/install.sh | sh

Ollama på Windows finns på sidan: https://ollama.com/download/windows Ollama för Mac finns också: https://ollama.com/download/macOllamaSetup.exe

Hämta, lista och ta bort Ollama-modeller

För att hämta några Ollama-modeller: Gå till Ollama Library (https://ollama.com/library) och hitta modellen du behöver, där kan du också hitta modelltaggar och storlekar.

Kör sedan:

ollama pull gemma2:latest

# Eller hämta en något smartare variant som fortfarande passar i 16GB VRAM:
ollama pull gemma2:27b-instruct-q3_K_S

# Eller: 
ollama pull llama3.1:latest
ollama pull llama3.1:8b-instruct-q8_0
ollama pull mistral-nemo:12b-instruct-2407-q6_K
ollama pull mistral-small:22b-instruct-2409-q4_0
ollama pull phi3:14b-medium-128k-instruct-q6_K
ollama pull qwen2.5:14b-instruct-q5_0

För att kontrollera vilka modeller Ollama har i det lokala lagret:

ollama list

För att ta bort en onödig modell:

ollama rm qwen2:7b-instruct-q8_0 # för exempel

Ollama-modellplats

Som standard lagras modellfilerna på:

  • Windows: C:\Users%username%.ollama\models
  • Linux: /usr/share/ollama/.ollama/models
  • macOS: ~/.ollama/models

Samma lagringsfråga uppstår när Ollama kör i behållare: du vill att modeller och serverstatus ska ligga på en namngiven volym eller bind mount (och eventuellt OLLAMA_MODELS när layouten ska skilja sig från standardvägen /root/.ollama i den officiella bilden). För en fullständig Compose-layout med GPU-reservation, OLLAMA_HOST, uppgraderingar och rollback-mönster, se Ollama i Docker Compose med GPU och varaktig modelllagring.

Konfigurera Ollama-modellväg på Windows

För att skapa en miljövariabel på Windows kan du följa dessa instruktioner:

  • Öppna Windows-inställningar.
  • Gå till System.
  • Välj Om.
  • Välj Avancerade systeminställningar.
  • Gå till fliken Avancerat.
  • Välj Miljövariabler…
  • Klicka på Ny…
  • Och skapa en variabel som heter OLLAMA_MODELS som pekar på där du vill lagra modellerna

Flytta Ollama-modeller på Linux

Redigera systemd-tjänstparametrarna för Ollama

sudo systemctl edit ollama.service

eller

sudo xed /etc/systemd/system/ollama.service

Detta öppnar en redigerare.

För varje miljövariabel, lägg till en rad Environment under sektionen [Service]:

[Service]
Environment="OLLAMA_MODELS=/specialplace/ollama/models"

Spara och avsluta.

Det finns också parametrar för Användare och Grupp, dessa måste ha tillgång till denna mapp.

Ladda om systemd och starta om Ollama:

sudo systemctl daemon-reload
sudo systemctl restart ollama

Om något gick fel

systemctl status ollama.service
sudo journalctl -u ollama.service

Lagring av filer på NTFS-overhead

Var medveten om att om du kör Linux och lagrar dina modeller på en NTFS-formaterad partition, så kommer dina modeller att laddas mycket – mer än 20% långsammare.

ntfs.mount cpu usage

Installera Ollama på Windows till en specifik mapp

Tillsammans med modellerna

.\OllamaSetup.exe /DIR=D:\OllamaDir

Exponera Ollama-API för intern nätverk

Internt här betyder lokalt nätverk.

Lägg till i tjänstkonfigurationen:

[Service]
Environment="OLLAMA_HOST=0.0.0.0"

Det exponerar det rena HTTP-API:t på ditt nätverk. För automatiserad HTTPS, korrekt strömning och WebSocket-proxying via Caddy eller Nginx, och kantförstärkning (timeouts, buffring, valfri auth framför API:t), använd Ollama bakom en reverse proxy med Caddy eller Nginx för HTTPS-strömning.

För att nå Ollama från fjärrenheter utan att öppna publika portar, använd ett privat overlay (Tailscale) eller WireGuard; se Fjärråtkomst till Ollama via Tailscale eller WireGuard, inga publika portar.

För att se hur Ollama passar med andra lokala och molnbaserade LLM-alternativ, kolla vår LLM-värd: Lokalt, Self-Hosted & Molninfrastruktur jämfört guide.

Användbara länkar

Prenumerera

Få nya inlägg om system, infrastruktur och AI-ingenjörskonst.