LLM

LLM-ASIC's en gespecialiseerde inferentiechips (waarom ze belangrijk zijn)

LLM-ASIC's en gespecialiseerde inferentiechips (waarom ze belangrijk zijn)

ASIC's en aangepast silicium verhogen de snelheid en efficiëntie van LLM-inferentie.

De toekomst van AI draait niet alleen om slimmer [modellen](https://www.glukhov.org/nl/rag/embeddings/qwen3-embedding-qwen3-reranker-on-ollama/ “Qwen3 embedding en reranker modellen - state-of-the-art prestaties). Het gaat ook om silicium dat aansluit op de manier waarop deze modellen daadwerkelijk worden aangeboden. Gespecialiseerde hardware voor LLM-inferentie volgt een pad dat doet denken aan de verschuiving in Bitcoin-mining van GPUs naar doelgerichte ASICs, maar met strengere beperkingen omdat modellen en precisie-formules voortdurend evolueren.

DGX Spark versus Mac Studio: Een prijsgecheckte blik op NVIDIA's persoonlijke AI-supercomputer

DGX Spark versus Mac Studio: Een prijsgecheckte blik op NVIDIA's persoonlijke AI-supercomputer

Beschikbaarheid, daadwerkelijke retailprijzen in zes landen en een vergelijking met de Mac Studio.

NVIDIA DGX Spark is een feit, verkrijgbaar vanaf 15 oktober 2025, en is gericht op CUDA-ontwikkelaars die lokale LLM-werklasten nodig hebben met een geïntegreerde NVIDIA AI-stack. De US MSRP bedraagt $3.999; de retailprijs in UK/DE/JP is hoger door BTW en kanaalkosten. Publieke stickerprijzen voor AUD/KRW zijn nog niet algemeen gepubliceerd.

Ollama Enshittification - De vroege tekenen

Ollama Enshittification - De vroege tekenen

Mijn visie op de huidige staat van Ollama-ontwikkeling

Ollama is snel geworden tot een van de meest populaire tools om LLMs lokaal uit te voeren. Zijn eenvoudige CLI en gestroomlijnde modelbeheer hebben het tot de favoriete keuze gemaakt voor ontwikkelaars die willen werken met AI-modellen buiten de cloud.

Chatinterface voor lokale Ollama-instanties

Chatinterface voor lokale Ollama-instanties

Korte overzicht van de meest opvallende UI's voor Ollama in 2025

Locally geïnstalleerde Ollama maakt het mogelijk om grote taalmodellen op je eigen computer te draaien, maar het gebruik ervan via de opdrachtnaam is niet gebruikersvriendelijk. Hieronder vind je verschillende open-source projecten die ChatGPT-stijl interfaces bieden die verbinding maken met een lokale Ollama.