API

Vane (Perplexica 2.0) Schnellstart mit Ollama und llama.cpp

Vane (Perplexica 2.0) Schnellstart mit Ollama und llama.cpp

Selbst gehostete KI-Suche mit lokalen LLMs

Vane ist einer der pragmatischeren Einträge im Bereich „KI-Suche mit Quellenangaben": eine selbst gehostete Antwortmaschine, die live abrufbare Websuche mit lokalen oder Cloud-LLMs kombiniert, während der gesamte Stack unter Ihrer Kontrolle bleibt.

Schnellstart mit llama.cpp: CLI und Server

Schnellstart mit llama.cpp: CLI und Server

Installation, Konfiguration und Nutzung von OpenCode

Ich komme immer wieder zu llama.cpp für die lokale Inferenz zurück – es gibt Ihnen Kontrolle, die Ollama und andere abstrahieren, und es funktioniert einfach. Das interaktive Ausführen von GGUF-Modellen mit llama-cli oder das Bereitstellen einer OpenAI-kompatiblen HTTP-API mit llama-server ist einfach.

Airtable für Entwickler und DevOps – Pläne, API, Webhooks und Go/Python-Beispiele

Airtable für Entwickler und DevOps – Pläne, API, Webhooks und Go/Python-Beispiele

Airtable – Grenzen des kostenlosen Plans, API, Webhooks, Go & Python.

Airtable ist am besten als eine Low-Code-Plattform für Anwendungen zu verstehen, die um eine kooperative „datenbankähnliche“ Tabellenansicht herum gebaut ist – ideal für die schnelle Erstellung von operativen Tools (interne Tracker, leichte CRM-Systeme, Inhaltspipelines, AI-Bewertungsqueues), bei denen Nicht-Entwickler eine freundliche Oberfläche benötigen, aber Entwickler auch eine API-Oberfläche für Automatisierung und Integration benötigen.

Playwright: Web-Scraping & Testing

Playwright: Web-Scraping & Testing

Meistern Sie die Browserautomatisierung für Tests und Web-Scraping

Playwright ist ein leistungsstarkes, modernes Browser-Automatisierungs-Framework, das das Web-Scraping und End-to-End-Testing revolutioniert.

Go-Projektstruktur: Praktiken und Muster

Go-Projektstruktur: Praktiken und Muster

Strukturieren Sie Ihre Go-Projekte für Skalierbarkeit und Klarheit

Die effektive Strukturierung eines Go-Projekts ist grundlegend für langfristige Wartbarkeit, Teamzusammenarbeit und Skalierbarkeit. Im Gegensatz zu Frameworks, die starre Verzeichnisstrukturen erzwingen, setzt Go auf Flexibilität – aber mit dieser Freiheit kommt die Verantwortung, Muster zu wählen, die den spezifischen Bedürfnissen Ihres Projekts dienen.

Verwendung der Ollama Web Search API in Python

Verwendung der Ollama Web Search API in Python

AI-Suchagenten mit Python und Ollama erstellen

Ollamas Python-Bibliothek umfasst nun native OLlama Websuche-Funktionen. Mit nur wenigen Codezeilen können Sie Ihre lokalen LLMs mit Echtzeitinformationen aus dem Web erweitern, um Halluzinationen zu reduzieren und die Genauigkeit zu verbessern.

Swagger zu Ihrer Go-API hinzufügen

Swagger zu Ihrer Go-API hinzufügen

OpenAPI-Dokumentation automatisch aus Code-Anmerkungen generieren

API-Dokumentation ist entscheidend für jede moderne Anwendung, und für Go APIs Swagger (OpenAPI) hat sich zum Branchenstandard entwickelt. Für Go-Entwickler bietet swaggo eine elegante Lösung, um umfassende API-Dokumentation direkt aus Code-Anmerkungen zu generieren.

Ollama vs. vLLM vs. LM Studio: Der beste Weg, LLMs 2026 lokal auszuführen?

Ollama vs. vLLM vs. LM Studio: Der beste Weg, LLMs 2026 lokal auszuführen?

Vergleichen Sie die besten lokalen Tools für das Hosting von LLMs im Jahr 2026. API-Reife, Hardware-Unterstützung, Tool Calling und reale Anwendungsfälle.

Das lokale Ausführen von LLMs ist für Entwickler, Startups und sogar Unternehmenseinsätze jetzt praktikabel. Die Wahl des richtigen Tools – Ollama, vLLM, LM Studio, LocalAI oder andere – hängt jedoch von Ihren Zielen ab: