Llama.cpp

Быстрый старт llama.cpp с CLI и сервером

Быстрый старт llama.cpp с CLI и сервером

Как установить, настроить и использовать OpenCode

Я постоянно возвращаюсь к llama.cpp для локального вывода — он дает вам контроль, который Ollama и другие абстрагируют, и просто работает. Легко запускать модели GGUF интерактивно с llama-cli или предоставлять совместимый с OpenAI HTTP API с llama-server.