SelfHosting

Wissensmanagement 2026: PKM-Tools, selbst gehostete Wikis und digitale Systeme

Wissensmanagement 2026: PKM-Tools, selbst gehostete Wikis und digitale Systeme

Vergleich von PKM-Tools, Methoden und selbst gehosteten Wikis.

Das persönliche Wissensmanagement erstreckt sich über Obsidian, Logseq, DokuWiki, Zettelkasten und PARA – die richtige Wahl hängt davon ab, ob Sie einen lokalen Notizgraphen, eine selbstgehostete Wiki-Plattform oder einen auf Outliner basierenden Workflow bevorzugen.

OpenClaw Skills-Ökosystem und praktische Produktionsauswahl

OpenClaw Skills-Ökosystem und praktische Produktionsauswahl

Die Fähigkeiten, die es wert sind, behalten zu werden, und diejenigen, die man überspringen sollte.

OpenClaw verfügt über zwei Erweiterungsstorys, die leicht miteinander verwechselt werden.

Plugins erweitern die Laufzeit. Skills erweitern das Verhalten des Agenten.

Vane (Perplexica 2.0) Schnellstart mit Ollama und llama.cpp

Vane (Perplexica 2.0) Schnellstart mit Ollama und llama.cpp

Selbst gehostete KI-Suche mit lokalen LLMs

Vane ist einer der pragmatischeren Einträge im Bereich „KI-Suche mit Quellenangaben": eine selbst gehostete Antwortmaschine, die live abrufbare Websuche mit lokalen oder Cloud-LLMs kombiniert, während der gesamte Stack unter Ihrer Kontrolle bleibt.

Hermes KI-Assistent – Installation, Einrichtung, Arbeitsablauf und Fehlerbehebung

Hermes KI-Assistent – Installation, Einrichtung, Arbeitsablauf und Fehlerbehebung

Hermes Agent: Installation und Quickstart für Entwickler

Hermes Agent ist ein selbst gehosteter, modellagnostischer KI-Assistent, der auf einer lokalen Maschine oder einem kostengünstigen VPS läuft, über Terminal- und Messaging-Oberflächen arbeitet und sich mit der Zeit verbessert, indem er wiederholte Aufgaben in wiederverwendbare Fähigkeiten umwandelt.

llama.swap Modell-Switcher Schnellstart für OpenAI-kompatible lokale LLMs

llama.swap Modell-Switcher Schnellstart für OpenAI-kompatible lokale LLMs

Hot-Swap lokaler LLMs ohne Änderung der Clients.

In Kürze jonglieren Sie mit vLLM, llama.cpp und mehr – jede Stack auf einem eigenen Port. Alles nachgeschaltete System erwartet dennoch eine einzige /v1-Basis-URL; sonst müssen Sie ständig Ports, Profile und Einweg-Skripte verwalten. llama-swap ist der /v1-Proxy vor diesen Stacks.

llama.cpp Schnellstart mit CLI und Server

llama.cpp Schnellstart mit CLI und Server

Wie Sie OpenCode installieren, konfigurieren und verwenden können

Ich komme immer wieder zu llama.cpp für lokale Inferenz – es gibt Ihnen die Kontrolle, die Ollama und andere abstrahieren, und es funktioniert einfach. Es ist leicht, GGUF-Modelle interaktiv mit llama-cli zu nutzen oder eine OpenAI-kompatible HTTP-API mit llama-server bereitzustellen.

Strapi vs Directus vs Payload: Headless-CMS-Vergleich

Strapi vs Directus vs Payload: Headless-CMS-Vergleich

Vergleichen Sie headless CMS - Funktionen, Leistung & Anwendungsfälle

Die Wahl der richtigen headless CMS kann über den Erfolg Ihrer Content-Management-Strategie entscheiden. Lassen Sie uns drei Open-Source-Lösungen vergleichen, die den Aufbau von contentgetriebenen Anwendungen beeinflussen.