Hardware
LLM-Selbsthosting und KI-Souveränität
Daten und Modelle mit selbstgehosteten LLMs kontrollieren
Selbstgehostete LLMs ermöglichen die Kontrolle über Daten, Modelle und Inferenz - ein praktischer Weg zur AI-Souveränität für Teams, Unternehmen und Nationen.
Hier: Was AI-Souveränität ist, welche Aspekte und Methoden zur Erstellung verwendet werden, wie LLM-Selbsthosting dabei eine Rolle spielt und wie Länder das Problem angehen.
Beste LLMs für Ollama auf einer GPU mit 16GB VRAM
LLM-Geschwindigkeitstest auf RTX 4080 mit 16GB VRAM
Das Ausführen großer Sprachmodelle lokal bietet Ihnen Privatsphäre, Offline-Fähigkeit und null API-Kosten. Diese Benchmark zeigt genau, was man von 9 beliebten LLMs auf Ollama auf einer RTX 4080 erwarten kann.
GPU- und RAM-Preise in Australien steigen: RTX 5090 um 15 % erhöht, RAM um 38 % - Januar 2026
GPU- und RAM-Preiskontrolle Januar 2025
Heute untersuchen wir die Top-Level-Verbraucher-GPUs und RAM-Module. Speziell betrachte ich die Preise für RTX-5080 und RTX-5090 sowie 32GB (2x16GB) DDR5 6000.
Beste Linux-Terminal-Emulatoren: Vergleich 2026
Wählen Sie das richtige Terminal für Ihren Linux-Workflow
Eines der wichtigsten Werkzeuge für Linux-Benutzer ist der Terminal-Emulator.
DGX Spark AU Preise: 6.249 $-7.999 $ bei großen Händlern
Echte AUD-Preise von australischen Händlern jetzt
Der NVIDIA DGX Spark (GB10 Grace Blackwell) ist jetzt in Australien erhältlich bei großen PC-Händlern mit lokalem Lagerbestand. Wenn Sie die globale DGX Spark-Preisgestaltung und Verfügbarkeit verfolgt haben, werden Sie interessiert sein zu erfahren, dass die australischen Preise je nach Speicherkonfiguration und Händler zwischen 6.249 und 7.999 AUD liegen.
Selbsthosting von Cognee: LLM-Leistungstests
Testen von Cognee mit lokalen LLMs - echte Ergebnisse
Cognee ist ein Python-Framework zum Aufbau von Wissensgraphen aus Dokumenten unter Verwendung von LLMs. Aber funktioniert es mit selbstgehosteten Modellen?
Ubuntu verlor nach Kernel-Upgrade die Netzwerkverbindung
Wie ich Netzwerkprobleme in Ubuntu behoben habe
Nach der automatischen Installation eines neuen Kernels hat Ubuntu 24.04 das Ethernet-Netzwerk verloren. Dieses frustrierende Problem trat bei mir ein zweites Mal auf, daher dokumentiere ich hier die Lösung, um anderen zu helfen, die dasselbe Problem haben.
RAM-Preis in Australien - Dezember 2025
Kurzer Beitrag, nur zur Notiz des Preises
Mit dieser verrückten RAM-Preisschwankung, um ein besseres Bild zu bekommen, lassen Sie uns zunächst selbst die RAM-Preise in Australien verfolgen.
RAM-Preisanstieg: Bis zu 619 % im Jahr 2025
RAM-Preise steigen um 163-619 % aufgrund von AI-Nachfrage, die das Angebot belastet
Der Speichermarkt erlebt im späten Jahr 2025 eine beispiellose Preisschwankung, wobei die RAM-Preise stark gestiegen sind.
NVIDIA RTX 5080- und RTX 5090-Preise in Australien – November 2025
Preise für AI-geeignete Consumer-GPUs - RTX 5080 und RTX 5090
Lassen Sie uns die Preise für High-End-Consumer-GPUs vergleichen, die insbesondere für LLMs und allgemein für KI geeignet sind. Speziell betrachte ich die Preise für RTX-5080 und RTX-5090.
KI-Infrastruktur auf Consumer-Hardware
Enterprise-KI auf Budget-Hardware mit Open-Modellen einsetzen
Die Demokratisierung von KI ist da. Mit Open-Source-LLMs wie Llama 3, Mixtral und Qwen, die nun mit proprietären Modellen mithalten, können Teams leistungsstarke KI-Infrastruktur mit Consumer-Hardware aufbauen - Kosten senken, während sie die vollständige Kontrolle über Datenschutz und Bereitstellung behalten.
FLUX.1-dev mit GGUF Q8 ausführen
Beschleunigen Sie FLUX.1-dev mit GGUF-Quantisierung
FLUX.1-dev ist ein leistungsstarkes Text-zu-Bild-Modell, das beeindruckende Ergebnisse liefert, aber dessen Speicherbedarf von über 24GB die Nutzung auf vielen Systemen erschwert. GGUF-Quantisierung von FLUX.1-dev bietet eine Lösung, indem sie den Speicherbedarf um etwa 50% reduziert, während die Bildqualität erhalten bleibt.
Hinzufügen von NVIDIA-GPU-Unterstützung zum Docker-Modell-Runner
Aktivieren Sie die GPU-Beschleunigung für Docker Model Runner mit NVIDIA CUDA-Unterstützung
Docker Model Runner ist Docker’s offizielles Tool zum lokalen Ausführen von KI-Modellen, aber die Aktivierung der NVidia-GPU-Beschleunigung in Docker Model Runner erfordert eine spezifische Konfiguration.
NVIDIA DGX Spark vs. Mac Studio vs. RTX-4080: Ollama-Leistungsvergleich
GPT-OSS 120b Benchmarks auf drei KI-Plattformen
Ich habe einige interessante Leistungsuntersuchungen zu GPT-OSS 120b ausgegraben, das auf Ollama auf drei verschiedenen Plattformen läuft: NVIDIA DGX Spark, Mac Studio und RTX 4080. Das GPT-OSS 120b-Modell aus der Ollama-Bibliothek wiegt 65 GB, was bedeutet, dass es nicht in die 16 GB VRAM einer RTX 4080 (oder der neueren RTX 5080) passt.
Docker Model Runner Cheatsheet: Befehle & Beispiele
Schnelle Referenz für Docker Model Runner-Befehle
Docker Model Runner (DMR) ist die offizielle Lösung von Docker zum lokalen Ausführen von KI-Modellen, eingeführt im April 2025. Dieses Cheatblatt bietet eine schnelle Referenz für alle wesentlichen Befehle, Konfigurationen und Best Practices.