LLM

OpenClaw Skills-ecosysteem en praktische productiekeuzes

OpenClaw Skills-ecosysteem en praktische productiekeuzes

De vaardigheden die het behouden waard zijn, en degenen die je beter kunt overslaan.

OpenClaw heeft twee extensieverhalen, die elkaar makkelijk kunnen verwisselen.

Plugins breiden de runtime uit. Skills breiden het gedrag van de agent uit.

Snelle start met Vane (Perplexica 2.0), Ollama en llama.cpp

Snelle start met Vane (Perplexica 2.0), Ollama en llama.cpp

Zelf gehoste AI-zoekopdrachten met lokale LLM's

Vane is een van de meest pragmatische opties binnen het domein van “AI-zoekmachines met bronvermelding”: een zelfgehoste antwoorden-engine die live web-ophaal met lokale of cloud-LLM’s combineert, waarbij de volledige stack onder uw controle blijft.

Hermes AI-assistent: installatie, configuratie, werkwijze en probleemoplossing

Hermes AI-assistent: installatie, configuratie, werkwijze en probleemoplossing

Installatie en snelstart voor ontwikkelaars van de Hermes Agent

Hermes Agent is een zelfgehoste, model-onafhankelijke AI-assistent die lokaal op een machine of een goedkope VPS draait, werkt via terminal- en messaging-interfaces en in de loop der tijd verbetert door herhaalde taken om te zetten in herbruikbare vaardigheden.

Ollama in Docker Compose met GPU en persistente modelopslag

Ollama in Docker Compose met GPU en persistente modelopslag

Componeren-als-basis Ollama-server met GPU en persistentie.

Ollama werkt uitstekend op bare metal. Het wordt nog interessanter wanneer je het als een service behandelt: een stabiel eindpunt, vastgezet versies, persistente opslag en een GPU die ofwel beschikbaar is of niet.