Opkomst en ondergang van OpenClaw — Tijdlijn en de werkelijke oorzaken van het verval
OpenClaw steeg snel. En verdween nog sneller.
OpenClaw faalde niet als product. Het verloor zijn brandstof.
OpenClaw steeg snel. En verdween nog sneller.
OpenClaw faalde niet als product. Het verloor zijn brandstof.
LLM's serveren en wisselen zonder herstart.
Lang had llama.cpp een opvallende beperking:
je kon slechts één model per proces bedienen, en om te wisselen moest je herstarten.
Bouw Claude Skills die stand houden in de praktijk.
De meeste teams misbruiken Claude Skills op één van de twee manieren. Ze maken van SKILL.md ofwel een stortbak, of ze stappen nooit over naar het gebruik van grote, gekopieerde en geplakte prompts.
Profiel-gerichte Hermes-configuraties voor zware werklasten
Hermes AI-assistent, officieel gedocumenteerd als Hermes Agent, is niet gepositioneerd als een simpele chat-wrapper.
De vaardigheden die het behouden waard zijn, en degenen die je beter kunt overslaan.
OpenClaw heeft twee extensieverhalen, die elkaar makkelijk kunnen verwisselen.
Plugins breiden de runtime uit. Skills breiden het gedrag van de agent uit.
Eerst plugins. Vaardigheidsnamen kort weergegeven.
Dit artikel gaat over OpenClaw-plug-ins — native gateway-pakketten die kanalen, modelproviders, tools, spraak, geheugen, media, webzoeken en andere runtime-oppervlakken toevoegen.
Hoe OpenClaw-systemen daadwerkelijk zijn gestructureerd
OpenClaw lijkt in demonstraties simpel. In productie wordt het een systeem.
Claude-abonnementen sturen agents niet meer aan
De stille achterdeur die een golf van experimenten met agents mogelijk maakte, is nu gesloten.
Zelf gehoste AI-zoekopdrachten met lokale LLM's
Vane is een van de meest pragmatische opties binnen het domein van “AI-zoekmachines met bronvermelding”: een zelfgehoste antwoorden-engine die live web-ophaal met lokale of cloud-LLM’s combineert, waarbij de volledige stack onder uw controle blijft.
Agentic coding, nu met lokale modelbackends.
Claude Code is geen autocomplete met betere marketing. Het is een agentische codeer-tool: het leest je codebase, bewerkt bestanden, voert commando’s uit en integreert met je ontwikkeltools.
Installatie en quickstart van Hermes Agent voor ontwikkelaars
Hermes Agent is een zelfgehoste, model-onafhankelijke AI-assistent die lokaal op een machine of een goedkope VPS draait, werkt via terminal- en messaging-interfaces en in de loop van de tijd verbetert door herhaalde taken om te zetten in herbruikbare vaardigheden.
Installeer TGI, schip snel af, debuggen sneller.
Text Generation Inference (TGI) heeft een zeer specifieke energie. Het is niet de nieuwste speler op de inference-straat, maar het is wel degene die al heeft geleerd hoe productie faalt en
Snelheid van llama.cpp-tokens bij 16 GB VRAM (tabellen).
Hier vergelijk ik de snelheid van verschillende LLMs die draaien op een GPU met 16 GB VRAM en kies ik de beste optie voor self-hosting.
Componeren-als-basis Ollama-server met GPU en persistentie.
Ollama werkt uitstekend op bare metal. Het wordt nog interessanter wanneer je het als een service behandelt: een stabiel eindpunt, vastgezet versies, persistente opslag en een GPU die ofwel beschikbaar is of niet.
HTTPS voor Ollama zonder streaming-responses te onderbreken.
Ollama achter een reverse proxy draaien is de eenvoudigste manier om HTTPS, optionele toegangscontrole en voorspelbaar streamgedrag te krijgen.
Serveer open modellen snel met SGLang.
SGLang is een high-performance framework voor het uitvoeren van inference bij grote taalmodellen en multimodale modellen, ontworpen om lage latentie en hoge doorvoer te leveren, variërend van een enkele GPU tot gedistribueerde clusters.