DevOps

Ollama in Docker Compose con GPU e archiviazione persistente dei modelli

Ollama in Docker Compose con GPU e archiviazione persistente dei modelli

Server Ollama con approccio compose-first, GPU e persistenza.

Ollama funziona egregiamente su hardware nudo (bare metal). Diventa ancora più interessante quando lo si tratta come un servizio: un endpoint stabile, versioni bloccate, archiviazione persistente e una GPU che è disponibile o non lo è.

Strumenti per Sviluppatori: La Guida Completa ai Flussi di Lavoro Moderni

Strumenti per Sviluppatori: La Guida Completa ai Flussi di Lavoro Moderni

Lo sviluppo software coinvolge Git per il controllo delle versioni, Docker per la containerizzazione, bash per l’automazione, PostgreSQL per i database e VS Code per l’editing, insieme a innumerevoli altri strumenti che possono fare o distruggere la tua produttività. Questa pagina raccoglie i cheatsheet essenziali, i flussi di lavoro e i confronti necessari per lavorare in modo efficiente attraverso l’intero stack di sviluppo.

Guida rapida a llama.cpp con CLI e Server

Guida rapida a llama.cpp con CLI e Server

Come installare, configurare e utilizzare OpenCode

Torno sempre su llama.cpp per l’inferenza locale: offre un controllo che Ollama e altri astraggono, e semplicemente funziona. È facile eseguire modelli GGUF in modo interattivo con llama-cli o esporre un’API HTTP compatibile con OpenAI con llama-server.

Strumenti per Sviluppatori AI: La Guida Completa allo Sviluppo Potenziato dall'IA

Strumenti per Sviluppatori AI: La Guida Completa allo Sviluppo Potenziato dall'IA

L’Intelligenza Artificiale sta ridisegnando il modo in cui il software viene scritto, revisionato, distribuito e mantenuto. Dai assistenti di programmazione basati sull’AI all’automazione GitOps e ai flussi di lavoro DevOps, gli sviluppatori si affidano ora a strumenti potenziati dall’AI lungo l’intero ciclo di vita del software.