Ollama Enshittification - De vroege tekenen
Mijn visie op de huidige staat van Ollama-ontwikkeling
Ollama is snel geworden tot een van de meest populaire tools om LLMs lokaal uit te voeren. Zijn eenvoudige CLI en gestroomlijnde modelbeheer hebben het tot de favoriete keuze gemaakt voor ontwikkelaars die willen werken met AI-modellen buiten de cloud.
Als je Ollama overweegt tegenover andere lokale of cloudopties, zie dan LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared. Maar net zoals bij veel veelbelovende platforms, zijn er al tekenen van Enshittification:
- het geleidelijke proces waarbij software of diensten in de loop van de tijd verslechteren, terwijl gebruikersbelangen geleidelijk ondergeschikt worden aan bedrijfs-, architecturale of andere interne prioriteiten.

In dit artikel zal ik recente trends en gebruikersklachten over Ollama bespreken die wijzen op deze verschuiving, en waarom dit belangrijk is voor de toekomst van Ollama.
Voor de details van de meest voorkomende Ollama-commands en parameters - zie dan Ollama cheatsheet.
Voor nuttige UIs voor Ollama zie - Open-Source Chat UIs for LLMs on Local Ollama Instances
Automatisch opstarten en beheer in de achtergrond
Een van de duidelijkste klachten die gebruikers melden is Ollama automatisch opstarten bij het opstarten van het systeem – vooral op Windows.
- Er is geen duidelijke instelling om dit gedrag uit te schakelen.
- Zelfs als je het handmatig uitschakelt, kunnen updates of herinstallaties dit opstarten stilzwijgend weer inschakelen.
- Op macOS start de desktop-app standaard bij het inloggen, tenzij je expliciet de CLI-only variant installeert.
Dit patroon – software die zichzelf in je opstartproces plaatst zonder expliciete toestemming – is een klassieke waarschuwing. Het ondermijnt gebruikersvertrouwen en creëert wrijving voor mensen die controle over hun systeem waarderen.
Telemetrie en dataverzameling
Een herhalend probleem is Ollama’s netwerkgedrag. Gebruikers hebben uitgaande verkeer opgemerkt, ook wanneer alle operaties lokaal moeten zijn. De onderhouders hebben verklaard dat dit verband houdt met updatecontroles, niet met gebruikersinvoer – maar er is geen eenvoudige schakelaar voor wie een strikt offline ervaring wil.
Voor een platform dat zichzelf positioneert als een lokale, privacy-first tool, creëert dit gebrek aan duidelijkheid twijfel. Transparantie en opt-outmogelijkheden zijn essentieel als Ollama zijn betrouwbaarheid wil behouden.
Prestatieverslechteringen met de nieuwe engine
Recente updates introduceerden een nieuwe inferentie-engine, maar in plaats van prestatieverbeteringen hebben sommige gebruikers het tegengestelde gemeld:
- Tokengeneratie is tot 10× langzamer in bepaalde scenario’s.
- GPU-gebruik is onconsistent vergeleken met de vorige engine.
- Grotere modellen zoals Qwen3:30B werken nu aanzienlijk slechter, met hogere latentie en lagere doorvoer.
Deze verschuiving doet zorgen over prioriteiten. Als updates modellen minder bruikbaar maken op echte hardware, kunnen ontwikkelaars gevoeld worden dat ze gedwongen zijn om hardware te upgraden of verminderde prestaties te accepteren – een subtiel manier waarop gebruikerservaring in de waagschaal wordt gebracht.
Veiligheidsrisico’s van verkeerd geconfigureerde instanties
Veiligheidsonderzoekers hebben blootgelegde Ollama-servers gevonden die zonder authenticatie draaien. Vulnerabiliteiten zoals padtraversal en denial-of-service-vektoren zijn bekendgemaakt, met enkele die zijn opgelost en andere die in twijfel zijn getrokken.
Hoewel veel van dit op gebruikers die fouten maken bij de implementatie valt, verhoogt het gebrek aan veilige standaardinstellingen het risico. Een platform’s verantwoordelijkheid omvat het maken van de veilige keuze de eenvoudige keuze.
Turbo: Monetisatie en veranderingen in het businessmodel
De lancering van Ollama Turbo – een cloudversnellingsservice – vertegenwoordigde een doorslaggevend moment. Ollama’s oorspronkelijke onderscheidingsmerk was zijn focus op lokale controle, privacy en open-sourceverdeling. Turbo brengt echter een afhankelijkheid met zich mee van Ollama’s eigen infrastructuur.
- Het gebruik van Turbo vereist een inloggen, wat afwijkt van de zero-friction lokale ervaring.
- Belangrijke functies in de Mac-app zijn nu afhankelijk van Ollama’s servers, wat zorgen doet over hoeveel functionaliteit offline nog bruikbaar blijft.
- Discussies op Hacker News beschouwden dit als het begin van enshittification, met waarschuwingen dat commercialisatie uiteindelijk betaalwegen kan introduceren voor functionaliteiten die momenteel gratis zijn.
Dit betekent niet dat Ollama zijn principes heeft opgegeven – Turbo kan waardevol zijn voor gebruikers die snellere inferentie willen zonder nieuwe hardware te kopen. Maar de optiek telt: zodra een lokale tool centrale diensten vereist voor “de beste” ervaring, loopt het het risico om de kwaliteiten die het oorspronkelijk onderscheidden van OpenAI of Anthropic te verduisteren.
Het patroon: gebruikerscontrole vs. leverancerafwijkingen
Afzonderlijk kunnen deze problemen klein lijken. Samen suggereren ze een patroon:
- Opstartgedrag is standaard aan, niet uit.
- Updatecontroles gebeuren automatisch, niet opt-in.
- Prestatieveranderingen dienen nieuwe architectuurdoelen, ook al verslechteren ze de huidige bruikbaarheid.
- Monetisatie introduceert nu serverafhankelijkheid, niet alleen lokale binaire bestanden.
Zo begint enshittification – niet met één vijandige beweging, maar met een reeks kleine verschuivingen die subtiel gebruikerscontrole inwisselen voor leveranceraanpassingen of inkomsten.
Wat nog niet is gebeurd (tot nu toe)
Voor zover het gaat, heeft Ollama nog niet de meest extreme gebieden betreden:
- Geen advertenties of promoties binnen de UI.
- Geen agressieve betaalwegen die kernlokale functionaliteit beperken.
- Geen harde vergrendeling rond propriëtaire formaten; gemeenschappelijke modellen blijven toegankelijk.
Zo gezegd, is waakzaamheid geboden. De verschuiving van “een tool die jouw controle respecteert” naar “een tool die standaard doet wat de leverancier wil” gebeurt vaak geleidelijk.

Conclusie
Ollama blijft één van de beste manieren om grote modellen lokaal uit te voeren. Om te zien hoe Ollama past bij andere lokale, zelfgehoste en cloud LLM-opties, zie dan onze LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared.
Maar de vroege signalen zijn duidelijk: automatisch opstartgedrag, onduidelijkheid rond telemetrie, prestatieverslechteringen, onveilige standaardinstellingen en de cloud-first richting van Turbo wijzen allemaal op een geleidelijke verschuiving van het originele ethos van het gereedschap.
Voor Ollama om trouw te blijven aan zijn belofte, moeten de onderhouders transparantie, opt-in ontwerp en lokale principes prioriteren. Anders loopt het platform het risico om de waarden die het oorspronkelijk aantrekkelijk maakten, ondermijnen. Maar ik hou niet van mijn adem.