DevOps

Hermes AI-assistent: installatie, configuratie, werkwijze en probleemoplossing

Hermes AI-assistent: installatie, configuratie, werkwijze en probleemoplossing

Installatie en snelstart voor ontwikkelaars van de Hermes Agent

Hermes Agent is een zelfgehoste, model-onafhankelijke AI-assistent die lokaal op een machine of een goedkope VPS draait, werkt via terminal- en messaging-interfaces en in de loop der tijd verbetert door herhaalde taken om te zetten in herbruikbare vaardigheden.

Ollama in Docker Compose met GPU en persistente modelopslag

Ollama in Docker Compose met GPU en persistente modelopslag

Componeren-als-basis Ollama-server met GPU en persistentie.

Ollama werkt uitstekend op bare metal. Het wordt nog interessanter wanneer je het als een service behandelt: een stabiel eindpunt, vastgezet versies, persistente opslag en een GPU die ofwel beschikbaar is of niet.

Ontwikkeltools: De complete gids voor moderne ontwikkelwerkwijzen

Ontwikkeltools: De complete gids voor moderne ontwikkelwerkwijzen

Het ontwikkelen van software omvat Git voor versiebeheer, Docker voor containerisatie, Bash voor automatisering, PostgreSQL voor databases en VS Code voor editing — naast talloze andere tools die uw productiviteit bepalen. Deze pagina verzamelt de essentiële cheat sheets, workflows en vergelijkingen die u nodig heeft om efficiënt te werken binnen de volledige ontwikkelstack.

LocalAI QuickStart: Voer OpenAI-compatibele LLM's lokaal uit

LocalAI QuickStart: Voer OpenAI-compatibele LLM's lokaal uit

Host OpenAI-compatibele API's in enkele minuten met LocalAI.

LocalAI is een self-hosted, local-first inference server die ontworpen is om te gedragen als een drop-in OpenAI API voor het uitvoeren van AI-werklasten op uw eigen hardware (laptop, workstation of on-premise server).

Snelstart van llama.cpp met CLI en server

Snelstart van llama.cpp met CLI en server

Hoe u OpenCode installeert, configureert en gebruikt

Ik keer steeds terug naar llama.cpp voor lokale inferentie: het geeft je controle die Ollama en anderen abstracteren, en het werkt gewoon. Het is eenvoudig om GGUF-modellen interactief uit te voeren met llama-cli of een OpenAI-compatibele HTTP-API bloot te stellen met llama-server.

AI-ontwikkeltools: De complete gids voor AI-aangedreven ontwikkeling

AI-ontwikkeltools: De complete gids voor AI-aangedreven ontwikkeling

Kunstmatige intelligentie (AI) hervormt de manier waarop software wordt geschreven, gecontroleerd, uitgebracht en onderhouden. Van AI-coderingsassistenten tot GitOps-automatisering en DevOps-workflows: ontwikkelaars vertrouwen nu op AI-aangedreven tools in de volledige softwarelevenscyclus.