Enshittificación de Ollama - Las primeras señales

Mi visión sobre el estado actual del desarrollo de Ollama

Índice

Ollama ha pasado rápidamente a ser una de las herramientas más populares para ejecutar modelos de lenguaje grande (LLM) en local.
Su CLI simple y su gestión de modelos optimizada han convertido a Ollama en una opción preferida para desarrolladores que desean trabajar con modelos de IA fuera de la nube.

Si estás considerando Ollama frente a otras opciones locales o en la nube, consulta LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared.
Pero, al igual que con muchas plataformas prometedoras, ya hay señales de Enshittificación:

  • el proceso gradual por el cual el software o los servicios se degradan con el tiempo, a medida que los intereses de los usuarios se subordinan lentamente a prioridades empresariales, arquitectónicas u otras internas.

enshittificación y decaimiento

En este artículo, exploraré las tendencias recientes y las quejas de los usuarios sobre Ollama que sugieren esta deriva, y por qué importan para su futuro.

Para los detalles de los comandos y parámetros más frecuentes de Ollama, consulta Ollama cheatsheet.

Para encontrar interfaces de usuario útiles para Ollama, consulta - Open-Source Chat UIs for LLMs on Local Ollama Instances

Inicio automático y control en segundo plano

Uno de los puntos de dolor más claros reportados por los usuarios es el inicio automático de Ollama al encender el sistema, especialmente en Windows.

  • No existe un ajuste claro para deshabilitar este comportamiento.
  • Incluso si lo deshabilitas manualmente, las actualizaciones o reinstalaciones pueden reactivarlo silenciosamente.
  • En macOS, la aplicación de escritorio también se inicia por defecto al iniciar sesión, a menos que instales específicamente la variante solo con CLI.

Este patrón — el software insertándose en tu rutina de inicio sin consentimiento explícito — es una bandera roja clásica. Erodea la confianza del usuario y crea fricción para quienes valoran el control sobre su sistema.


Preocupaciones sobre telemetría y recolección de datos

Otro problema recurrente es el comportamiento de red de Ollama. Los usuarios han notado tráfico saliente incluso cuando todas las operaciones deberían ser locales. Los mantenedores han indicado que esto está relacionado con las verificaciones de actualización, no con las entradas del usuario — pero no hay un interruptor sencillo para quienes desean una experiencia estrictamente offline.

Para una plataforma que se vende como una herramienta local y centrada en la privacidad, esta falta de claridad genera dudas. La transparencia y las opciones de opt-out son esenciales si Ollama quiere mantener su credibilidad.


Regresiones de rendimiento con el nuevo motor

Las actualizaciones recientes introdujeron un nuevo motor de inferencia, pero en lugar de mejorar el rendimiento, algunos usuarios han reportado lo contrario:

  • La generación de tokens es hasta 10 veces más lenta en ciertos escenarios.
  • La utilización de la GPU es inconsistente en comparación con el motor anterior.
  • Modelos más grandes como Qwen3:30B ahora funcionan significativamente peor, con mayor latencia y menor throughput.

Este cambio plantea preocupaciones sobre las prioridades. Si las actualizaciones hacen que los modelos sean menos útiles en hardware real, los desarrolladores podrían sentirse presionados a actualizar su hardware o aceptar un rendimiento degradado — otra forma sutil de depriorizar la experiencia del usuario.


Riesgos de seguridad por instancias mal configuradas

Investigadores de seguridad han encontrado servidores Ollama expuestos que funcionan sin autenticación. Vulnerabilidades como recorrido de ruta y vectores de denegación de servicio han sido reveladas, con algunos parcheados y otros disputados.

Aunque gran parte de esto recae en usuarios que malconfiguran sus implementaciones, la falta de configuraciones seguras por defecto aumenta el riesgo. La responsabilidad de una plataforma incluye hacer que la opción segura sea la más fácil.


Turbo: Cambios en la monetización y el modelo de negocio

El lanzamiento de Ollama Turbo — un servicio de aceleración en la nube — representó un momento crucial. La diferenciación original de Ollama era su enfoque en control local, privacidad y distribución de código abierto. Sin embargo, Turbo introduce una dependencia en la infraestructura de Ollama.

  • El uso de Turbo requiere un inicio de sesión, alejándose de la experiencia local sin fricción.
  • Funciones clave en la aplicación para Mac ahora dependen de los servidores de Ollama, generando preocupaciones sobre cuánta funcionalidad podría seguir siendo usable sin conexión.
  • Las discusiones en Hacker News lo marcaron como el comienzo de la enshittificación, advirtiendo que la comercialización podría eventualmente introducir paywalls para capacidades que actualmente son gratuitas.

Esto no significa que Ollama haya abandonado sus principios — Turbo puede ser valioso para usuarios que desean una inferencia más rápida sin comprar nuevo hardware. Pero la percepción importa: una vez que una herramienta local requiere servicios centralizados para “la mejor” experiencia, corre el riesgo de diluir las cualidades que la hicieron destacar frente a OpenAI o Anthropic desde el principio.


El patrón: Control del usuario vs. configuraciones por defecto del proveedor

Por separado, estos problemas podrían parecer pequeños. Juntos, sugieren un patrón:

  • El comportamiento de inicio por defecto está encendido, no apagado.
  • Las verificaciones de actualización ocurren automáticamente, no por opt-in.
  • Los cambios de rendimiento sirven nuevos objetivos arquitectónicos, incluso si degradan la usabilidad actual.
  • La monetización ahora introduce dependencia de servidores, no solo binarios locales.

Así comienza la enshittificación — no con un solo movimiento hostil, sino con una serie de pequeños cambios que intercambian gradualmente el control del usuario por la comodidad o los ingresos del proveedor.


Lo que aún no ha sucedido (hasta ahora)

Para ser justos, Ollama aún no ha cruzado en el territorio más grave:

  • No hay anuncios ni promociones dentro de la interfaz.
  • No hay paywalls agresivos que limiten la funcionalidad local básica.
  • No hay bloqueos duros alrededor de formatos propietarios; los modelos comunitarios siguen siendo accesibles.

Dicho esto, la vigilancia es necesaria. El cambio de “una herramienta que respeta tu control” a “una herramienta que hace lo que el proveedor quiere por defecto” suele ocurrir gradualmente.


tendencia de enshittificación en la ciudad

Conclusión

Ollama sigue siendo una de las mejores formas de ejecutar modelos grandes en local. Para ver cómo Ollama se compara con otras opciones locales, autohospedadas y en la nube de LLM, consulta nuestro LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared.

Pero las señales tempranas son claras: el comportamiento de inicio automático, la opacidad en la telemetría, las regresiones de rendimiento, los valores predeterminados inseguros y el desplazamiento hacia la nube de Turbo sugieren un movimiento lento alejándose del ethos original de la herramienta.

Para que Ollama siga siendo fiel a su promesa, los mantenedores deben priorizar transparencia, diseño por opt-in y principios de enfoque local. De lo contrario, la plataforma corre el riesgo de socavar los valores que la hicieron atractiva en primer lugar. Pero no me hago ilusiones.

Enlaces útiles