올라마 엔시티피케이션 - 초기 징후
현재 Ollama 개발 상태에 대한 제 의견
Ollama은 LLM을 로컬에서 실행하는 데 사용되는 가장 인기 있는 도구 중 하나로 빠르게 자리 잡았습니다. 간단한 CLI와 스트리밍된 모델 관리 기능으로 인해 클라우드 외부에서 AI 모델을 다루고자 하는 개발자들에게 필수적인 선택지가 되었습니다.
Ollama를 다른 로컬 또는 클라우드 옵션과 비교하고자 한다면 LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared를 참조하세요. 하지만 많은 유망한 플랫폼처럼, 이미 **Enshittification**의 징후가 나타나고 있습니다:
- 사용자의 관심이 시간이 지남에 따라 비즈니스, 아키텍처 또는 기타 내부 우선순위에 서서히 복종하게 되는 과정으로, 소프트웨어 또는 서비스가 점차 악화되는 현상입니다.

이 기사에서는 Ollama와 관련된 최근 트렌드 및 사용자 불만 사항을 살펴보며, 이러한 변화가 왜 미래에 영향을 미칠 수 있는지 설명할 것입니다.
가장 일반적인 Ollama 명령어 및 파라미터의 세부 사항을 보려면 Ollama cheatsheet를 참조하세요.
Ollama에 유용한 UI를 원한다면 - Open-Source Chat UIs for LLMs on Local Ollama Instances를 참조하세요.
자동 시작 및 백그라운드 제어
사용자들이 보고한 가장 명확한 불편 사항 중 하나는 시스템 부팅 시 Ollama가 자동으로 시작되는 것입니다. 특히 윈도우에서 이 문제가 두드러집니다.
- 이 행동을 비활성화할 수 있는 명확한 설정이 없습니다.
- 수동으로 비활성화하더라도 업데이트나 재설치 시 다시 자동으로 활성화될 수 있습니다.
- macOS에서는 데스크톱 앱이 로그인 시 기본적으로 시작되며, CLI 전용 버전을 설치하지 않는 한 이 설정을 변경할 수 없습니다.
이 패턴 — 사용자의 명시적인 동의 없이 소프트웨어가 자체적으로 시작 루틴에 삽입되는 것 —은 고전적인 경고 신호입니다. 이는 사용자 신뢰를 약화시키고, 시스템 제어를 중시하는 사용자에게 불편을 줍니다.
추적 및 데이터 수집 문제
또 다른 반복적인 문제는 Ollama의 네트워크 행동입니다. 사용자들은 모든 작업이 로컬에서 이루어져야 할 때도 외부로의 트래픽을 발견했습니다. 유지자들은 이 현상이 업데이트 확인과 관련되어 있으며, 사용자 입력과는 무관하다고 밝혔지만, 완전히 오프라인 환경을 원하는 사용자들에게는 간단한 토글 옵션이 없습니다.
자신을 로컬, 개인정보 보호 중심 도구로 마케팅하는 플랫폼이 이 명확성 부족으로 의심을 받는 것은 문제입니다. Ollama가 신뢰성을 유지하려면 투명성과 선택권 옵션이 필수적입니다.
새로운 엔진과의 성능 회귀
최근 업데이트는 새로운 추론 엔진을 도입했지만, 일부 사용자들은 반대로 성능 저하를 보고했습니다:
- 특정 상황에서는 토큰 생성 속도가 10배나 느려졌습니다.
- GPU 사용률은 이전 엔진과 비교해 불일치합니다.
- Qwen3:30B와 같은 더 큰 모델은 이제 지연 시간이 길어지고 처리량이 줄어들었습니다.
이 변화는 우선순위에 대한 우려를 일으키고 있습니다. 업데이트가 실제 하드웨어에서 모델 사용성을 저하시키면, 개발자들은 하드웨어 업그레이드나 성능 저하를 받아들여야 할 수 있습니다. 이는 사용자 경험을 하위로 밀어내는 또 다른 세심한 방식입니다.
잘못 구성된 인스턴스로 인한 보안 위험
보안 연구자들은 인증 없이 실행되는 노출된 Ollama 서버를 발견했습니다. 경로 탐색 및 서비스 거부 벡터와 같은 취약점이 공개되었으며, 일부는 패치되고 다른 일부는 논란이 되었습니다.
사용자가 배포를 잘못 구성했음에도 불구하고, 기본 설정이 안전하지 않아 위험이 증가합니다. 플랫폼의 책임은 안전한 선택이 쉬운 선택이 되도록 만드는 것입니다.
Turbo: 수익화 및 사업 모델 변화
Ollama Turbo — 클라우드 가속 서비스 —의 출시는 중요한 순간이었습니다. Ollama의 원래 차별점은 로컬 제어, 개인정보 보호 및 오픈소스 배포에 초점을 맞추는 것이었습니다. 그러나 Turbo는 Ollama 자체 인프라에 의존하게 만듭니다.
- Turbo를 사용하려면 로그인이 필요하며, 이는 제로 마찰의 로컬 중심 경험에서 벗어납니다.
- Mac 앱의 핵심 기능은 이제 Ollama 서버에 의존하게 되어, 오프라인에서 얼마나 많은 기능이 사용 가능한지에 대한 우려가 생깁니다.
- Hacker News의 토론에서는 이 변화를 enshittification의 시작으로 보았으며, 상업화가 결국 현재 무료로 제공되는 기능에 대한 결제 장벽을 도입할 수 있다고 경고했습니다.
이건 Ollama가 원칙을 포기했다는 의미는 아닙니다. Turbo는 새로운 하드웨어를 구매하지 않고도 더 빠른 추론을 원하는 사용자에게 가치가 있을 수 있습니다. 하지만 시각은 중요합니다. 로컬 중심 도구가 “최고의” 경험을 위해 중앙 집중형 서비스를 요구하면, OpenAI 또는 Anthropic과의 차별화를 희석할 위험이 있습니다.
패턴: 사용자 제어 vs. 제공업체 기본 설정
개별적으로 이 문제들은 작아 보일 수 있습니다. 하지만 함께 보면 패턴이 드러납니다:
- 시작 행동의 기본 설정은 켜짐이며, 꺼짐이 아닙니다.
- 업데이트 확인은 자동으로 이루어지며, 선택적 참여가 아닙니다.
- 성능 변화는 새로운 아키텍처 목표를 위해 이루어지며, 현재 사용성은 저하시킬 수 있습니다.
- 수익화는 이제 로컬 바이너리가 아닌 서버 의존성을 도입합니다.
이렇게 enshittification이 시작됩니다 — 단일한 적대적인 움직임이 아니라, 사용자 제어를 제공업체의 편의나 수익으로 약간씩 바꾸는 일련의 작은 변화를 통해.
아직 일어나지 않은 일들 (아직은)
정의롭게 말하자면, Ollama는 아직 가장 심각한 영역으로는 진입하지 않았습니다:
- UI 내부에 광고나 홍보가 없습니다.
- 핵심 로컬 기능을 제한하는 강력한 결제 장벽이 없습니다.
- 프로페셔널 형식에 대한 강력한 잠금이 없습니다. 커뮤니티 모델은 여전히 접근 가능합니다.
하지만 경계가 필요합니다. “사용자가 제어를 존중하는 도구”에서 “제공업체가 원하는 것을 기본값으로 하는 도구”로의 전환은 종종 점진적으로 이루어집니다.

결론
Ollama는 여전히 대규모 모델을 로컬에서 실행하는 데 가장 좋은 방법 중 하나입니다. Ollama가 다른 로컬, 자체 호스팅 및 클라우드 LLM 옵션과 어떻게 어울리는지 보려면 LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared를 참조하세요.
하지만 초기 징후는 명확합니다: 자동 시작 행동, 추적 불투명성, 성능 회귀, 불안전한 기본 설정, 그리고 Turbo의 클라우드 중심 이동은 모두 도구의 원래 이념에서 점점 멀어지는 것을 암시합니다.
Ollama가 약속을 지키려면 유지자들이 투명성, 선택적 설계 및 로컬 중심 원칙을 우선시해야 합니다. 그렇지 않으면 플랫폼은 처음부터 매력적이었던 가치를 약화시킬 위험이 있습니다. 하지만 저는 기대하지 않습니다.