Instalacja i konfiguracja Claude Code dla Ollama, llama.cpp, ceny

Agencjonalne kodowanie, teraz z lokalnymi backendami modeli.

Page content

Claude Code to nie autouzupełnianie z lepszym marketingiem. To narzędzie kodowania agentowe: czyta Twoją bazę kodu, edytuje pliki, uruchamia polecenia i integruje się z Twoimi narzędziami developerskimi.

Ta różnica ma znaczenie, ponieważ jednostka pracy przestaje być „linią kodu”, a staje się „zadaniem z określonym stanem końcowym”.

Anthropic jasno określa tę różnicę: uzupełnianie kodu sugeruje następną linię podczas pisania, podczas gdy Claude Code działa na poziomie projektu, planuje zmiany w wielu plikach, wykonuje modyfikacje, uruchamia testy i iteruje w przypadku błędów. W praktyce sprawia to, że narzędzie jest bliżej terminalowego juniora, który może szybko wykonywać proste zadania, ale nadal wymaga weryfikacji.

Napięcie między szybkością a nadzorem to duża część tego, co ludzie łączą pod pojęciem „vibe coding”; Co to jest Vibe Coding? omawia to pojęcie, jego pochodzenie oraz jak wyglądają efektywność i ryzyko w praktyce.

laptop-homeresver-claude-code-coffee-books

Jeden szczegół, który łatwo przeoczyć przy szybkiej lekturze dokumentacji: Terminal CLI (oraz interfejs VS Code) można skonfigurować tak, aby korzystał z dostawców zewnętrznych. Tutaj pojawiają się Ollama i llama.cpp.

Gdy Claude Code jest skierowany na lokalny punkt końcowy HTTP, wymiany związane ze środowikiem wykonawczym, sprzętem i hostingiem znajdują się poza klientem; to porównanie hostingu LLM w 2026 roku zestawia Ollamę, dedykowane stosy wnioskowania i opcje chmurowe w jednym miejscu.

Aby zobaczyć, jak Claude Code wpisuje się w inne przepływy pracy wspomagane przez AI w kodowaniu i dostarczaniu oprogramowania, ten przewodnik po narzędziach dla deweloperów AI łączy asystentów w stylu Copilot, automatyzację i wzorce edytorów w jednym miejscu.

Przegląd narzędziowy asystentów kodowania w tej samej kategorii znajduje się w Porównaniu Asystentów Kodowania AI, które omawia Cursor, Copilot, Cline i pozostałe narzędzia na wyższym poziomie niż ten przewodnik instalacyjny.

Instalacja Claude Code i szybki start

Opcje instalacji i ich implikacje

Istnieje kilka ścieżek instalacji i nie są one sobie równe:

  • Natywne skrypty instalacyjne to opcja „zawsze aktualna”, ponieważ aktualizują się automatycznie.
  • Homebrew i WinGet to opcja „kontrolowanej zmiany”, ponieważ aktualizujesz je świadomie.

Polecenia instalacyjne (oficjalny szybki start):

# macOS, Linux, WSL
curl -fsSL https://claude.ai/install.sh | bash
# Windows PowerShell
irm https://claude.ai/install.ps1 | iex
:: Windows CMD
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

Następnie uruchom interaktywną sesję z katalogu projektu:

cd /path/to/your/project
claude

Logowanie i typy kont

Claude Code wymaga konta do uruchomienia w trybie pierwszoplanowym (first-party). Szybki start obsługuje logowanie przez subskrypcję Claude (Pro, Max, Team, Enterprise), konto Console (kredyty API) lub wspieranych dostawców chmurowych. Przydatna uwaga operacyjna: przy pierwszym logowaniu do Console tworzony jest obszar roboczy „Claude Code” do scentralizowanego śledzenia kosztów.

Konfiguracja Claude Code: settings.json i zmienne środowiskowe

Jeśli Claude Code wydaje się magiczny, gdy działa, często bywa „tajemniczy”, gdy nie działa. Rozwiązaniem jest zrozumienie warstw konfiguracji i kilku zmiennych środowiskowych, które naprawdę mają znaczenie.

Pliki ustawień i ich precedencja

Ustawienia Claude Code są hierarchiczne, z trzema plikami dostępnymi dla deweloperów:

  • Zakres użytkownika, stosowany wszechstronnie: ~/.claude/settings.json
  • Zakres projektu, współdzielony w repozytorium: .claude/settings.json
  • Zakres lokalny, nadpisania dla danej maszyny: .claude/settings.local.json (ignorowany przez git)

Precedencja (od najwyższego do najniższego): polityka zarządzana, flagi CLI, lokalne, projektowe, użytkownika. Ta kolejność wyjaśnia wiele sytuacji „dlaczego moja konfiguracja jest ignorowana”.

Możesz zarządzać ustawieniami interaktywnie za pomocą polecenia /config, które otwiera interfejs ustawień wewnątrz REPL.

Zmienne środowiskowe kontrolujące routowanie dostawcy

Claude Code można sterować w czasie wykonania za pomocą zmiennych środowiskowych. Dwa dziwactwa zachowania warto traktować jako ograniczenia projektowe:

  1. Jeśli ANTHROPIC_API_KEY jest ustawiony, Claude Code będzie używał klucza zamiast subskrypcji Claude, nawet jeśli jesteś zalogowany. W trybie print (-p) klucz jest zawsze używany, jeśli jest obecny.

  2. Jeśli ANTHROPIC_BASE_URL wskazuje na host niebędący pierwszoplanowy (proxy, bramka lub serwer lokalny), niektóre funkcje są celowo ograniczone. Na przykład wyszukiwanie narzędzi MCP jest domyślnie wyłączone, chyba że wyraźnie je ponownie włączysz.

W odniesieniu do konkretnej granicy subskrypcyjnej obecnie egzekwowanej w stosach agentów zewnętrznych, ta aktualizacja polityki Claude dla przepływów OpenClaw wyjaśnia, dlaczego wymagane jest korzystanie z użycia wspieranego przez API.

Minimalny wzorzec „użyj bramki” wygląda następująco:

export ANTHROPIC_BASE_URL=https://your-gateway.example
export ANTHROPIC_API_KEY=sk-your-key

Uwaga dotycząca bramki: Claude Code oczekuje określonych formatów API. Dla formatu Anthropic Messages, bramka musi udostępniać /v1/messages i /v1/messages/count_tokens oraz przekazywać nagłówki anthropic-beta i anthropic-version. Jeśli bramka odrzuca te nagłówki, istnieje dedykowany przełącznik do usuwania eksperymentalnych wersji beta.

Wybór modelu w Claude Code, gdy nie korzystasz bezpośrednio z Anthropic

Claude Code ma koncepcję aliasów (opus, sonnet, haiku) oraz obsługuje przypinanie konkretnych identyfikatorów modeli. Istnieje również lista dozwolonych, która może ograniczać to, co użytkownicy mogą wybrać w selektorze modeli, nawet przy routowaniu przez dostawców zewnętrznych.

Pragmatycznym wzorcem jest ustawienie modelu początkowego i ograniczenie selektora, a następnie przypięcie tego, co „domyślne” rozwiązuje, poprzez env:

{
  "model": "claude-sonnet-4-5",
  "availableModels": ["claude-sonnet-4-5", "haiku"],
  "env": {
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-5"
  }
}

Uruchamianie lokalnych LLM przez Ollama

Ollama jest obecnie najprostszym sposobem uruchomienia Claude Code na modelach innych niż Anthropic, ponieważ udostępnia API kompatybilne z Anthropic, z którym Claude Code może komunikować się.

Szybka konfiguracja z ollama launch

Jeśli masz zainstalowanego i uruchomionego Ollamę, szybką ścieżką jest:

ollama launch claude

Lub określ model przy uruchamianiu:

ollama launch claude --model glm-4.7-flash

Ręczna konfiguracja z wykorzystaniem zmiennych środowiskowych

Dokumentacja integracji Ollama opisuje prostą ręczną konfigurację, w której Claude Code komunikuje się z Ollama przez punkt końcowy API kompatybilnego z Anthropic:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434

claude --model qwen3.5

Ten wzorzec jest opiniowany w przydatny sposób: traktuje „routowanie dostawcy” jako problem środowiskowy, a nie coś, co klikasz w GUI.

Rzeczywistość okna kontekstowego

Agenticzne kodowanie jest wymagające pod względem kontekstu. Ollama mówi to wprost: Claude Code wymaga dużego okna kontekstowego i zaleca co najmniej 64k tokenów. Jeśli Twój lokalny model osiąga maksymalnie 8k lub 16k, Claude Code nadal będzie działać, ale obietnica „poziomu projektu” stanie się krucha.

Dla praktycznego zachowania lokalnych modeli w podobnym setupie terminalowego agenta (Ollama i llama.cpp, zadania kodowania i szczere notatki o porażkach), Najlepsze LLM dla OpenCode - Testowane Lokalnie jest przydatnym punktem odniesienia przy węższym doborze tagów GGUF lub Ollama dla Claude Code.

Uruchamianie lokalnych LLM przez llama.cpp

llama.cpp jest atrakcyjne z przeciwnej przyczyny: nie próbuje być platformą. To szybki, lekki serwer, który może udostępniać zarówno trasy kompatybilne z OpenAI, jak i trasę kompatybilną z API Anthropic Messages.

Dla ścieżek instalacji, llama-cli i zachowania llama-server wykraczających poza poniższe fragmenty, Szybki start llama.cpp z CLI i Serwerem jest referencją od początku do końca.

Co uruchomić po stronie serwera

Serwer HTTP llama.cpp (llama-server) obsługuje API Anthropic-compatible Messages na POST /v1/messages, z strumieniowaniem przez SSE. Oferuje również count_tokens na /v1/messages/count_tokens.

Dwa szczegóły mają znaczenie dla Claude Code:

  • Serwer wyraźnie nie twierdzi, że jest w pełni zgodny ze specyfikacją API Anthropic, ale stwierdza, że działa wystarczająco dobrze dla wielu aplikacji.
  • Używanie narzędzi wymaga uruchomienia llama-server z flagą –jinja. Jeśli tego pominiesz, Claude Code będzie zachowywał się tak, jakby nagle zapomniał, jak być agentem.

Minimalne uruchomienie lokalne wygląda następująco:

# Zbuduj lub pobierz llama-server, a następnie uruchom z modelem GGUF
./llama-server -m /models/your-model.gguf --jinja --host 127.0.0.1 --port 8080

Jeśli chcesz twardą granicę uwierzytelniania, llama-server można skonfigurować z kluczem API:

./llama-server -m /models/your-model.gguf --jinja --api-key my-local-key --host 127.0.0.1 --port 8080

Skieruj Claude Code do llama-server

Gdy serwer jest uruchomiony, strona Claude Code sprowadza się głównie do nadpisania adresu URL bazowego:

export ANTHROPIC_BASE_URL=http://127.0.0.1:8080
export ANTHROPIC_API_KEY=my-local-key   # tylko jeśli włączyłeś --api-key na llama-server

claude --model your-model-alias

Jeśli nie ustawisz klucza API lub tokena uwierzytelniania, Claude Code może próbować cofnąć się do logowania subskrypcyjnego, co jest źródłem wielu skarg typu „dlaczego otwiera przeglądarkę”.

Testy zdrowia i pierwsza triaż awarii

llama-server udostępnia prosty punkt końcowy zdrowia, który zwraca „loading model” do momentu, gdy model jest gotowy, i „ok”, gdy jest gotowy do użycia. Gdy Claude Code wydaje się zawieszać przy pierwszym żądaniu, sprawdzenie /health to szybki sposób na rozróżnienie „błędu konfiguracji klienta” od „serwer wciąż ładuje”.

Cennik i model kosztów

Cennik Claude Code dotyczy mniej „kupowania CLI”, a bardziej „który tor rozliczeniowy wspiera tokeny”.

Plany subskrypcyjne obejmują Claude Code

Anthropic dołącza Claude Code do płatnych poziomów subskrypcji Claude. Stan na kwiecień 2026 roku, opublikowane ceny to:

  • Pro za 17 dolarów miesięcznie z rabatem rocznym (200 dolarów płatne z góry), lub 20 dolarów płatnych miesięcznie, i obejmuje Claude Code.
  • Plany Max zaczynające się od 100 dolarów miesięcznie.
  • Plany Team wyceniane na stanowisko, ze standardowym stanowiskiem za 20 dolarów na stanowisko miesięcznie płatnym rocznie (25 dolarów miesięcznie) i premium stanowiskiem za 100 dolarów na stanowisko miesięcznie płatnym rocznie (125 dolarów miesięcznie).

Cennik tokenów API

Jeśli korzystasz z Claude Code przez rozliczenia API, koszty wynikają z stawek za tokeny. Anthropic publikuje ceny za milion tokenów (MTok) dla modeli takich jak:

  • Haiku 4.5 za 1$/MTok wejściowe i 5$/MTok wyjściowe.
  • Sonnet 4.5 za 3$/MTok wejściowe i 15$/MTok wyjściowe.
  • Opus 4.5 za 5$/MTok wejściowe i 25$/MTok wyjściowe.

Kontrola kosztów w CLI

Tryb print (-p) obsługuje bezpośrednie limity budżetowe, takie jak –max-budget-usd, co jest przydatne przy skryptowaniu zadań i chęci przewidywalnych wydatków.

W sesjach interaktywnych /cost pokazuje statystyki użycia tokenów.

Lokalne backendy zmieniają rachunek, nie fizykę

Routowanie Claude Code do Ollama lub llama.cpp może usunąć rozliczenia za tokeny API, ale nie sprawia, że praca jest darmowa. Zamieniasz koszty chmurowe na lokalne obliczenia, pamięć i „ktoś odpowiada za uptime”. Dla niektórych zespołów ten kompromis jest głównym celem.

Typowy przepływ pracy: od planu do PR

Moja stronniczość polega na tym, że Claude Code jest najsilniejszy, gdy traktujesz go jako silnik przepływu pracy, a nie czatbota. Narzędzia sugerują to.

Zacznij od modelu uprawnień, nie od promptu

Claude Code jest zaprojektowany z blokadą uprawnień. Dokumentacja opisuje warstwową strukturę: operacje tylko do odczytu, takie jak odczyt plików i grep, są dozwolone, podczas polecenia bash i modyfikacje plików wymagają aprobaty.

Tryby uprawnień istnieją, aby zarządzać tarcie. W CLI możesz przełączać tryby za pomocą Shift+Tab (domyślny -> acceptEdits -> plan). Tryb Plan czyta i proponuje zmiany, ale nie edytuje. Tryb acceptEdits pozwala Claude Code tworzyć i edytować pliki w Twoim katalogu roboczym bez pytania, nadal pytając o polecenia z efektami ubocznymi poza jego bezpieczną listą.

Tryb Auto to nowsza opcja, która redukuje pytania, delegując aprobacie klasyfikatorowi, pozycjonowana jako bezpieczniejsza ścieżka pośrednia między ciągłymi pytaniami a całkowitym ich wyłączaniem. Wymaga minimalnej wersji Claude Code oraz określonych wymagań planu i modelu.

Używaj wbudowanych poleceń, aby utrzymać sesje uczciwe

Kilka poleceń zmienia Claude Code z „asystenta” w „narzędzie”:

  • /init generuje przewodnik projektu CLAUDE.md, co jest lekkim sposobem na dostarczenie spójnego kontekstu. Dla wielokrotnych playbooków i powtarzalnych przepływów pracy, które znajdują się powyżej CLAUDE.md, Claude Skills dla deweloperów omawia układ SKILL.md, kompatybilność IDE, strojenie wyzwalaczy i testowanie.
  • /diff daje interaktywny widok zmian, w tym diffy na turę.
  • /rewind pozwala cofnąć rozmowę i/lub kod do poprzedniego punktu, używając punktów kontrolnych.
  • /debug włącza logowanie debugowania w trakcie sesji.
  • /doctor diagnozuje i weryfikuje Twoją instalację i ustawienia.

To nie są sztuczki; to są bariety bezpieczeństwa, na które się opierasz, gdy agent edytuje więcej, niż oczekiwałeś.

Kiedy wybrać tryb nieinteraktywny

Dla zadań jednorazowych (wyjaśnij, podsumuj, wygeneruj plan łatki), tryb print jest dobrym wyborem:

claude -p "Summarise the repository architecture and list the riskiest modules"

Kończy się po odpowiedzi, co dobrze działa w skryptach i CI.

Lista kontrolna rozwiązywania problemów

Większość problemów z Claude Code to problemy z konfiguracją w przebraniu. Oto lista kontrolna, która mapuje wspólne objawy na mechanizm podstawowy.

Claude Code ciągle prosi o zalogowanie przy użyciu lokalnego serwera

Zwykle oznacza to, że Claude Code nadal próbuje użyć uwierzytelniania subskrypcyjnego pierwszoplanowego. Upewnij się, że ustawiłeś eksplicytny tryb uwierzytelniania dla proxy:

  • Ustaw ANTHROPIC_API_KEY dla bramek oczekujących X-Api-Key.
  • Lub ustaw ANTHROPIC_AUTH_TOKEN dla bramek używających Authorization Bearer.

Pamiętaj, że ANTHROPIC_API_KEY nadpisuje użycie subskrypcyjne, nawet jeśli jesteś zalogowany, a w trybie interaktywnym możesz potrzebować zatwierdzić to nadpisanie raz.

Bramka błęduje przy nagłówkach anthropic-beta

Niektóre bramki odrzucają nieznane nagłówki lub pola beta. Istnieje zmienna środowiskowa zaprojektowana specjalnie dla tego trybu awarii:

export CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1

Dokumentacja bramy LLM również wskazuje, że możesz potrzebować tego przy używaniu formatu Anthropic Messages z Bedrock lub Vertex.

Wywoływanie narzędzi nie działa na llama.cpp

Sprawdź ponownie flagi serwera. llama-server dokumentuje, że używanie narzędzi wymaga flagi –jinja. Bez niej serwer może odpowiadać, ale pętla agenta się degraduje.

Pytania o uprawnienia przerywają każde polecenie

To może być normalne, w zależności od trybu i zasad uprawnień. Opcje obejmują:

  • Tymczasowe przełączenie na acceptEdits (edycje plików płyną szybciej).
  • Napisanie eksplicytnych reguł allow dla znanych bezpiecznych poleceń bash w settings.json.
  • Użycie /sandbox do izolacji narzędzia bash przy jednoczesnym redukowaniu pytań.
  • Ocena trybu auto, jeśli Twój plan i wersja go obsługują, jako ziemię pośrednią.

Coś jest nie tak i potrzebujesz obserwowalności

Użyj wbudowanych narzędzi:

  • /doctor do walidacji instalacji i ustawień.
  • /debug do rozpoczęcia przechwytywania logów od tego momentu.
  • Jeśli jesteś w trybie print, rozważ ścisły max budżet i max turny, aby utrzymać eksperymenty w granicach.

Pozycja Claude Code jako chronione narzędzie pierwszoplanowe Anthropic stała się strategicznie istotna w kwietniu 2026 roku, gdy Anthropic zablokował dostęp do subskrypcji Claude dla frameworków agentów zewnętrznych, utrzymując Claude Code na rozliczeniach subskrypcyjnych. Oś czasu wzrostu i upadku OpenClaw omawia to wydarzenie i co ono ujawnia o podejściu Anthropic do narzędzi pierwszoplanowych versus zewnętrznych.

Subskrybuj

Otrzymuj nowe wpisy o systemach, infrastrukturze i inżynierii AI.