Ollamaモデルを別の場所に移動する

OllamaのLLMモデルファイルは多くのスペースを占めます。

目次

ollamaをインストールした後は、すぐにOllamaを再構成して、新しい場所にモデルを保存するように設定するのが良いでしょう。そうすることで、新しいモデルをプルした際にも、古い場所にダウンロードされません。

かさにかぶったスマートなリラマがサーバールームで何かしている

Ollamaについて

Ollamaは、LLM AIモデルをテキストベースのフロントエンドとして提供し、それらをホストするAPIも備えています。OllamaとvLLM、Docker Model Runner、LocalAI、クラウドプロバイダーとの比較、コストやインフラのトレードオフについても詳しく知りたい場合は、LLMホスティング: ローカル、セルフホスト、クラウドインフラの比較をご覧ください。

Ollamaのインストール

https://ollama.com/downloadにアクセスしてください。

LinuxでOllamaをインストールするには、以下のコマンドを実行してください:

curl -fsSL https://ollama.com/install.sh | sh

Windows用のOllamaについては、こちらのページをご覧ください: https://ollama.com/download/windows
Mac用のOllamaもこちらにあります: https://ollama.com/download/macOllamaSetup.exe

Ollamaモデルのダウンロード、一覧表示、削除

Ollamaモデルをダウンロードするには、Ollamaライブラリ(https://ollama.com/library)にアクセスし、必要なモデルを探してください。モデルのタグやサイズもここで確認できます。

その後、以下のコマンドを実行してください:

ollama pull gemma2:latest

# もしくは、16GBのVRAMにうまく収まる少し賢いモデルを取得する場合:
ollama pull gemma2:27b-instruct-q3_K_S

# または:
ollama pull llama3.1:latest
ollama pull llama3.1:8b-instruct-q8_0
ollama pull mistral-nemo:12b-instruct-2407-q6_K
ollama pull mistral-small:22b-instruct-2409-q4_0
ollama pull phi3:14b-medium-128k-instruct-q6_K
ollama pull qwen2.5:14b-instruct-q5_0

ローカルリポジトリに保存されているOllamaモデルを確認するには:

ollama list

不要なモデルを削除するには:

ollama rm qwen2:7b-instruct-q8_0 # 例

Ollamaモデルの保存場所

デフォルトでは、モデルファイルは以下に保存されます:

  • Windows: C:\Users%username%.ollama\models
  • Linux: /usr/share/ollama/.ollama/models
  • macOS: ~/.ollama/models

WindowsでOllamaモデルの保存場所を設定する

Windowsで環境変数を作成するには、以下の手順に従ってください:

  • Windows設定を開きます。
  • 「システム」を選択します。
  • 「概要」を選択します。
  • 「高度なシステム設定」を選択します。
  • 「高度な」タブに移動します。
  • 「環境変数…」を選択します。
  • 「新規…」をクリックします。
  • 「OLLAMA_MODELS」という名前の変数を作成し、モデルを保存したい場所を指定します。

LinuxでOllamaモデルを移動する

ollamaのsystemdサービスパラメータを編集します。

sudo systemctl edit ollama.service

または

sudo xed /etc/systemd/system/ollama.service

これによりエディタが開きます。

各環境変数に対して、[Service]セクションにEnvironment行を追加します。

[Service]
Environment="OLLAMA_MODELS=/specialplace/ollama/models"

保存して終了します。

UserとGroupのパラメータも存在しており、これらのユーザーとグループはこのフォルダにアクセスできる必要があります。

systemdを再読み込みし、Ollamaを再起動します:

sudo systemctl daemon-reload
sudo systemctl restart ollama

何か問題が起きた場合は:

systemctl status ollama.service
sudo journalctl -u ollama.service

NTFSフォーマットのオーバーヘッド

Linuxで動作させている場合、モデルをNTFSフォーマットのパーティションに保存していると、モデルの読み込み速度が20%以上遅くなる可能性があります。

ntfs.mount cpu usage

WindowsにOllamaを特定のフォルダにインストールする

モデルとともに

.\OllamaSetup.exe /DIR=D:\OllamaDir

内部ネットワークにOllama APIを公開する

ここでの「内部」はローカルネットワークを指します。

サービス構成に以下を追加してください:

[Service]
Environment="OLLAMA_HOST=0.0.0.0"

Ollamaが他のローカルおよびクラウドLLMオプションとどのように統合されるかについては、LLMホスティング: ローカル、セルフホスト、クラウドインフラの比較をご覧ください。

有用なリンク