Self-Hosting

KI-Infrastruktur auf Consumer-Hardware

KI-Infrastruktur auf Consumer-Hardware

Enterprise-KI auf Budget-Hardware mit Open-Modellen einsetzen

Die Demokratisierung von KI ist da. Mit Open-Source-LLMs wie Llama 3, Mixtral und Qwen, die nun mit proprietären Modellen mithalten, können Teams leistungsstarke KI-Infrastruktur mit Consumer-Hardware aufbauen - Kosten senken, während sie die vollständige Kontrolle über Datenschutz und Bereitstellung behalten.

StatefulSets & Persistente Speicherung in Kubernetes

StatefulSets & Persistente Speicherung in Kubernetes

Bereitstellen von zustandsbehafteten Anwendungen mit geordneter Skalierung und persistenter Daten

Kubernetes StatefulSets sind die optimale Lösung für die Verwaltung von zustandsbehafteten Anwendungen, die stabile Identitäten, dauerhafte Speicherung und geordnete Bereitstellungsmuster benötigen – essenziell für Datenbanken, verteilte Systeme und Caching-Schichten.

FLUX.1-dev mit GGUF Q8 ausführen

FLUX.1-dev mit GGUF Q8 ausführen

Beschleunigen Sie FLUX.1-dev mit GGUF-Quantisierung

FLUX.1-dev ist ein leistungsstarkes Text-zu-Bild-Modell, das beeindruckende Ergebnisse liefert, aber dessen Speicherbedarf von über 24GB die Nutzung auf vielen Systemen erschwert. GGUF-Quantisierung von FLUX.1-dev bietet eine Lösung, indem sie den Speicherbedarf um etwa 50% reduziert, während die Bildqualität erhalten bleibt.

Strapi vs Directus vs Payload: Headless-CMS-Vergleich

Strapi vs Directus vs Payload: Headless-CMS-Vergleich

Vergleichen Sie headless CMS - Funktionen, Leistung & Anwendungsfälle

Die Wahl der richtigen headless CMS kann über den Erfolg Ihrer Content-Management-Strategie entscheiden. Lassen Sie uns drei Open-Source-Lösungen vergleichen, die den Aufbau von contentgetriebenen Anwendungen beeinflussen.

Immich selbst hosten: Private Fotowolke

Immich selbst hosten: Private Fotowolke

Ihre Fotos auf selbstgehostetem KI-gestütztem Backup

Immich ist eine revolutionäre Open-Source-Lösung für die selbstgehostete Verwaltung von Fotos und Videos, die Ihnen die vollständige Kontrolle über Ihre Erinnerungen gibt. Mit Funktionen, die denen von Google Photos in nichts nachstehen – einschließlich KI-gestützter Gesichtserkennung, intelligenter Suche und automatischer Mobilgeräte-Sicherung – und dabei Ihre Daten privat und sicher auf Ihrem eigenen Server halten.

Elasticsearch-Cheatsheet: Wichtige Befehle & Tipps

Elasticsearch-Cheatsheet: Wichtige Befehle & Tipps

Elasticsearch-Befehle für Suche, Indexierung und Analysen

Elasticsearch ist ein leistungsstarkes verteiltes Such- und Analyse-Engine, das auf Apache Lucene basiert. Dieses umfassende Cheat-Sheet behandelt wesentliche Befehle, Best Practices und schnelle Referenzen für die Arbeit mit Elasticsearch-Clustern.

NVIDIA DGX Spark vs. Mac Studio vs. RTX-4080: Ollama-Leistungsvergleich

NVIDIA DGX Spark vs. Mac Studio vs. RTX-4080: Ollama-Leistungsvergleich

GPT-OSS 120b Benchmarks auf drei KI-Plattformen

Ich habe einige interessante Leistungsuntersuchungen zu GPT-OSS 120b ausgegraben, das auf Ollama auf drei verschiedenen Plattformen läuft: NVIDIA DGX Spark, Mac Studio und RTX 4080. Das GPT-OSS 120b-Modell aus der Ollama-Bibliothek wiegt 65 GB, was bedeutet, dass es nicht in die 16 GB VRAM einer RTX 4080 (oder der neueren RTX 5080) passt.