DevOps

Ollama i Docker Compose med GPU och bestående modelllagring

Ollama i Docker Compose med GPU och bestående modelllagring

Ollama-server med komposition i förgrunden, GPU och uthållighet.

Ollama fungerar utmärkt på “bare metal”. Det blir ännu mer intressant när du behandlar det som en tjänst: en stabil slutpunkt, fastlagda versioner, beständig lagring och en GPU som antingen är tillgänglig eller inte.

Llama.swap Modellväxlar – Snabbstart för lokala, OpenAI-kompatibla LLM:ar

Llama.swap Modellväxlar – Snabbstart för lokala, OpenAI-kompatibla LLM:ar

Byt lokala LLM:ar utan att ändra klienterna.

Snart kastar du mellan vLLM, llama.cpp och mer – varje stack på sin egen port. Allt nedströms vill fortfarande ha en enda bas-URL /v1; annars fortsätter du att shuffla med portar, profiler och skript för enskilda fall. llama-swap är /v1-proxyn som ligger framför dessa stackar.

Utvecklarverktyg: Den fullständiga guiden till moderna utvecklingsarbetsflöden

Utvecklarverktyg: Den fullständiga guiden till moderna utvecklingsarbetsflöden

Att utveckla mjukvara innebär att använda Git för versionshantering, Docker för containerisering, bash för automatisering, PostgreSQL för databaser och VS Code för redigering – tillsammans med otaliga andra verktyg som avgör din produktivitet. Denna samlar de nödvändiga fuskblad, arbetsflöden och jämförelser du behöver för att arbeta effektivt över hela utvecklingsstacken.

LocalAI QuickStart: Kör OpenAI-kompatibla LLMs lokalt

LocalAI QuickStart: Kör OpenAI-kompatibla LLMs lokalt

Självhänseende av OpenAI-kompatibla API:n med LocalAI på några minuter.

LocalAI är en självhostad, lokal-först inferensserver designad för att bete sig som en drop-in OpenAI API för att köra AI-arbetsbelastningar på din egen hårdvara (bärbar dator, arbetsstation eller on-prem-server).

llama.cpp: Snabbstart med CLI och server

llama.cpp: Snabbstart med CLI och server

Så installerar, konfigurerar och använder du OpenCode

Jag återvänder alltid till llama.cpp för lokal inferens – det ger dig kontroll som Ollama och andra abstraherar bort, och det fungerar helt enkelt. Det är enkelt att köra GGUF-modeller interaktivt med llama-cli eller exponera en OpenAI-kompatibel HTTP-API med llama-server.