AI

Hermes-Agent-Speichersystem: Wie persistentes KI-Speichern tatsächlich funktioniert

Hermes-Agent-Speichersystem: Wie persistentes KI-Speichern tatsächlich funktioniert

Speicher ist der Unterschied zwischen einem Werkzeug und einem Partner.

Sie kennen das Prinzip. Sie öffnen einen Chat mit einem KI-Agenten, erklären Ihr Projekt, teilen Ihre Präferenzen, lassen etwas erledigen und schließen den Tab. Kommen Sie die folgende Woche zurück, ist es so, als würden Sie mit einem Fremden sprechen – der gesamte Kontext ist verloren, jede Präferenz vergessen, das Projekt muss von Grund auf neu erklärt werden.

OpenClaw Skills-Ökosystem und praktische Produktionsauswahl

OpenClaw Skills-Ökosystem und praktische Produktionsauswahl

Die Fähigkeiten, die es wert sind, behalten zu werden, und diejenigen, die man überspringen sollte.

OpenClaw verfügt über zwei Erweiterungsstorys, die leicht miteinander verwechselt werden.

Plugins erweitern die Laufzeit. Skills erweitern das Verhalten des Agenten.

Vane (Perplexica 2.0) Schnellstart mit Ollama und llama.cpp

Vane (Perplexica 2.0) Schnellstart mit Ollama und llama.cpp

Selbst gehostete KI-Suche mit lokalen LLMs

Vane ist einer der pragmatischeren Einträge im Bereich „KI-Suche mit Quellenangaben": eine selbst gehostete Antwortmaschine, die live abrufbare Websuche mit lokalen oder Cloud-LLMs kombiniert, während der gesamte Stack unter Ihrer Kontrolle bleibt.

Hermes AI-Assistent – Installation, Einrichtung, Workflow und Fehlerbehebung

Hermes AI-Assistent – Installation, Einrichtung, Workflow und Fehlerbehebung

Installation und Schnellstart des Hermes-Agenten für Entwickler

Hermes Agent ist ein selbst gehosteter, modellagnostischer KI-Assistent, der auf einem lokalen Rechner oder einem kostengünstigen VPS läuft, über Terminal- und Messaging-Schnittstellen arbeitet und sich im Laufe der Zeit verbessert, indem er wiederholte Aufgaben in wiederverwendbare Fähigkeiten umwandelt.

Ollama in Docker Compose mit GPU und persistenter Modell-Speicherung

Ollama in Docker Compose mit GPU und persistenter Modell-Speicherung

Compose-first Ollama-Server mit GPU und Persistenz.

Ollama funktioniert hervorragend auf Bare Metal. Es wird noch interessanter, wenn man es wie einen Service behandelt: ein stabiler Endpunkt, fixierte Versionen, persistente Speicherung und eine GPU, die entweder verfügbar ist oder eben nicht.