AI

vLLM Quickstart: Hochleistungs-LLM-Serving

vLLM Quickstart: Hochleistungs-LLM-Serving

Schnelle LLM-Inferenz mit der OpenAI-API

vLLM ist ein hochleistungsfähiger, speichereffizienter Inference- und Serving-Engine für Large Language Models (LLMs), entwickelt vom Sky Computing Lab der UC Berkeley.

Erkennung von AI-Slop: Techniken und Warnsignale

Erkennung von AI-Slop: Techniken und Warnsignale

Technischer Leitfaden zur Erkennung von KI-generierten Inhalten

Die Verbreitung von KI-generierten Inhalten hat eine neue Herausforderung geschaffen: den Unterschied zwischen echter menschlicher Schrift und “AI slop” - niedrigwertigen, massenhaft produzierten synthetischen Texten - zu erkennen.

Jupyter Notebook Cheatsheet

Jupyter Notebook Cheatsheet

Wichtige Shortcuts und magische Befehle

Steigern Sie die Produktivität mit Jupyter Notebook mit wesentlichen Shortcuts, Zauberbefehlen und Workflow-Tipps, die Ihr Datenwissenschafts- und Entwicklererlebnis transformieren werden.

Verwendung der Ollama Web Search API in Python

Verwendung der Ollama Web Search API in Python

AI-Suchagenten mit Python und Ollama erstellen

Ollamas Python-Bibliothek umfasst nun native OLlama Websuche-Funktionen. Mit nur wenigen Codezeilen können Sie Ihre lokalen LLMs mit Echtzeitinformationen aus dem Web erweitern, um Halluzinationen zu reduzieren und die Genauigkeit zu verbessern.

Vektor-Speicher für RAG-Vergleiche

Vektor-Speicher für RAG-Vergleiche

Wählen Sie die richtige Vektordatenbank für Ihren RAG-Stack

Die Wahl des richtigen Vektor-Speichers kann über Leistung, Kosten und Skalierbarkeit Ihrer RAG-Anwendung entscheiden. Dieser umfassende Vergleich deckt die beliebtesten Optionen für 2024-2025 ab.

KI-Infrastruktur auf Consumer-Hardware

KI-Infrastruktur auf Consumer-Hardware

Enterprise-KI auf Budget-Hardware mit Open-Modellen einsetzen

Die Demokratisierung von KI ist da. Mit Open-Source-LLMs wie Llama 3, Mixtral und Qwen, die nun mit proprietären Modellen mithalten, können Teams leistungsstarke KI-Infrastruktur mit Consumer-Hardware aufbauen - Kosten senken, während sie die vollständige Kontrolle über Datenschutz und Bereitstellung behalten.