AI

Immich selbst hosten: Private Fotowolke

Immich selbst hosten: Private Fotowolke

Ihre Fotos auf selbstgehostetem KI-gestütztem Backup

Immich ist eine revolutionäre Open-Source-Lösung für die selbstgehostete Verwaltung von Fotos und Videos, die Ihnen die vollständige Kontrolle über Ihre Erinnerungen gibt. Mit Funktionen, die denen von Google Photos in nichts nachstehen – einschließlich KI-gestützter Gesichtserkennung, intelligenter Suche und automatischer Mobilgeräte-Sicherung – und dabei Ihre Daten privat und sicher auf Ihrem eigenen Server halten.

LLM-ASICs und spezialisierte Inferenzchips (warum sie wichtig sind)

LLM-ASICs und spezialisierte Inferenzchips (warum sie wichtig sind)

ASICs und maßgeschneiderte Chips steigern Geschwindigkeit und Effizienz der LLM-Inferenz.

Die Zukunft von KI besteht nicht nur in intelligenteren Modellen. Es geht auch um Silizium, das auf die Art und Weise zugeschnitten ist, wie diese Modelle tatsächlich bereitgestellt werden. Spezialisierte Hardware für die LLM-Inferenz folgt einem Pfad, der an den Wechsel von GPUs zu eigens gebauten ASICs beim Bitcoin-Mining erinnert, jedoch mit schwierigeren Randbedingungen, da sich Modelle und Präzisionsrezepte ständig weiterentwickeln.

DGX Spark vs. Mac Studio: Ein preisgeprüfter Blick auf NVIDIAs persönliches KI-Supercomputer

DGX Spark vs. Mac Studio: Ein preisgeprüfter Blick auf NVIDIAs persönliches KI-Supercomputer

Verfügbarkeit, reale Straßenpreise in sechs Ländern und Vergleich mit dem Mac Studio.

NVIDIA DGX Spark ist Realität, ab dem 15. Oktober 2025 verfügbar und richtet sich an CUDA-Entwickler, die lokale LLM-Arbeitslasten mit einem integrierten NVIDIA AI-Stack benötigen. Der US-Empfehlungspreis liegt bei 3.999 USD; der Einzelhandelspreis in UK/DE/JP ist aufgrund der MwSt. und des Vertriebswegs höher. Öffentliche Aufkleberpreise für AUD/KRW sind noch nicht weit verbreitet.

Ollama-Enshittification – die frühen Anzeichen

Ollama-Enshittification – die frühen Anzeichen

Meine Sicht auf den aktuellen Stand der Ollama-Entwicklung

Ollama hat sich schnell zu einem der beliebtesten Tools zur lokalen Ausführung von LLMs entwickelt. Seine einfache CLI und die nahtlose Modellverwaltung haben es zu einer bevorzugten Option für Entwickler gemacht, die mit AI-Modellen außerhalb der Cloud arbeiten möchten.