LLM

Ollama-Enshittification – die frühen Anzeichen

Ollama-Enshittification – die frühen Anzeichen

Meine Sicht auf den aktuellen Stand der Ollama-Entwicklung

Ollama hat sich schnell zu einem der beliebtesten Tools zur lokalen Ausführung von LLMs entwickelt. Seine einfache CLI und die nahtlose Modellverwaltung haben es zu einer bevorzugten Option für Entwickler gemacht, die mit AI-Modellen außerhalb der Cloud arbeiten möchten.

Chat-Oberflächen für lokale Ollama-Instanzen

Chat-Oberflächen für lokale Ollama-Instanzen

Schneller Überblick über die wichtigsten UIs für Ollama im Jahr 2025

Locally gehostete Ollama ermöglicht es, große Sprachmodelle auf Ihrem eigenen Gerät auszuführen, aber die Verwendung über die Befehlszeile ist nicht benutzerfreundlich. Hier sind mehrere Open-Source-Projekte, die ChatGPT-ähnliche Schnittstellen bereitstellen, die mit einer lokalen Ollama verbunden sind.

Suche vs. Deep Search vs. Deep Research im Jahr 2026

Suche vs. Deep Search vs. Deep Research im Jahr 2026

Welcher KI-Forschungsmodus passt zu Ihrer Aufgabe?

  • Suche ist ideal für die schnelle und direkte Informationsbeschaffung mit Hilfe von Stichwörtern.
  • Deep Search überzeugt durch das Verständnis von Kontext und Absicht und liefert für komplexe Anfragen relevantere und umfassendere Ergebnisse.
Cloud-LLM-Anbieter

Cloud-LLM-Anbieter

Kurze Liste von LLM-Anbietern

Die Verwendung von LLMs ist nicht sehr teuer, es könnte kein Bedarf bestehen, neue, unglaublich leistungsstarke GPUs zu kaufen.
Hier ist eine Liste der LLM-Anbieter in der Cloud mit den LLMs, die sie hosten.

Test: Wie Ollama die Intel CPU Performance und Efficient Cores verwendet

Test: Wie Ollama die Intel CPU Performance und Efficient Cores verwendet

Ollama auf Intel CPU: Effiziente vs. Leistungscores

Ich habe eine Theorie, die ich testen möchte – wenn man alle Kerne eines Intel-Prozessors nutzt, würde das die Geschwindigkeit von LLMs erhöhen? Test: Wie Ollama die Leistung des Intel-Prozessors und der effizienten Kerne nutzt

Es nervt mich, dass das neue Gemma3-Modell mit 27 Bit (gemma3:27b, 17 GB auf Ollama) nicht in die 16 GB VRAM meines GPUs passt und teilweise auf dem CPU läuft.

Wie Ollama parallele Anfragen verarbeitet

Wie Ollama parallele Anfragen verarbeitet

„Konfigurieren von ollama für parallelle Anfragenbearbeitung.“

Wenn der Ollama-Server zwei Anfragen gleichzeitig erhält, hängt sein Verhalten von seiner Konfiguration und den verfügbaren Systemressourcen ab.