SelfHosting

Agent Memory Providersの比較 — Honcho、Mem0、Hindsight、およびその他の5社

Agent Memory Providersの比較 — Honcho、Mem0、Hindsight、およびその他の5社

エージェントの永続的なメモリを実現する、8種類のプラグ可能なバックエンド。

現代のアシスタントは、コンテキストウィンドウを超えて何かが保持されない限り、タブを閉じるとすべてを忘れてしまいます。**Agent memory providers(エージェントメモリプロバイダー)**は、セッションをまたいで事実や要約を保持するサービスまたはライブラリです。これらは多くの場合、フレームワークを軽量に保ちながらメモリを拡張できるように、プラグインとして組み込まれます。

このガイドでは、Hermes Agentの外部メモリプラグインとして提供されている8つのバックエンド — Honcho、OpenViking、Mem0、Hindsight、Holographic、RetainDB、ByteRover、Supermemory — を比較し、それらがより広範な AI systems スタックにどのように適合するかを説明します。これらと同じベンダーが、コミュニティまたは公式の統合を通じて、OpenClaw やその他のエージェントツールにも登場します。AI Systems Memory hub には、この記事が Cognee や関連ガイドと並んで掲載されています。

AIシステムメモリ — 永続的知識とエージェントメモリ

AIシステムメモリ — 永続的知識とエージェントメモリ

単一のチャットスレッドを超えた永続的な知識

このセクションでは、AIシステムにおける永続的な知識とメモリに関するガイドをまとめています。アシスタントがトークンを1つのプロンプトにすべて詰め込むことなく、セッション間で事実、設定、抽出された文脈をどのように保持するかについて解説します。ここで言うメモリとは、GPUのRAMやモデルの重みではなく、意図的な保持(ユーザーの事実、サマリー、プラグインによるストア)を指します。

Hermes Agent Memory System:パーシステントなAIメモリの仕組み

Hermes Agent Memory System:パーシステントなAIメモリの仕組み

「メモリ(記憶)の有無こそが、ツールとパートナーを分かつ境界線である。」

お分かりでしょう。AIエージェントとチャットを開始し、プロジェクトについて説明し、好みを共有し、いくつかの作業を済ませ、タブを閉じます。そして翌週に戻ってくると、まるで初対面の相手と話しているかのようです。すべてのコンテキストは失われ、すべての好みは忘れ去られ、プロジェクトを一から説明し直すことになります。

2026 年の知識管理:PKM ツール、セルフホスト型ウィキ、およびデジタルシステム

2026 年の知識管理:PKM ツール、セルフホスト型ウィキ、およびデジタルシステム

PKM ツール、手法、およびセルフホスト型ウィキの比較。

パーソナルナレッジマネジメント(PKM)には、Obsidian、Logseq、DokuWiki、Zettelkasten、PARA など様々な選択肢がありますが、最適な選択は、ローカルなノートグラフ、セルフホスティングされたウィキ、あるいはアウトライン主導のワークフローのいずれを望むかによって異なります。

本番環境向けのHermes AIアシスタントスキル

本番環境向けのHermes AIアシスタントスキル

本格的なワークロード向けのプロファイルファーストなHermes設定

公式にはHermes Agentとして文書化されているHermes AIアシスタントは、単なるチャットラッパーとして位置づけられてはいません。

OpenClaw プラグイン — エコシステムガイドと実用的な選択

OpenClaw プラグイン — エコシステムガイドと実用的な選択

まずはプラグイン。スキルの名称を簡潔に。

この記事は、チャネル、モデルプロバイダー、ツール、音声、メモリ、メディア、Web 検索、その他ランタイムの表面機能などを追加するネイティブゲートウェイパッケージであるOpenClaw プラグインについて解説します。

Vane(Perplexica 2.0)Ollama と llama.cpp を使用したクイックスタート

Vane(Perplexica 2.0)Ollama と llama.cpp を使用したクイックスタート

ローカル LLM を活用したセルフホスティング AI 検索

Vane は、「出典付き AI 検索」領域において、より実用的な選択肢の一つです。これは、リアルタイムのウェブ取得とローカルまたはクラウド上の LLM(大規模言語モデル)を組み合わせた、セルフホスティング可能な回答エンジンであり、スタック全体をユーザーの管理下に置くことができます。

Hermes AI アシスタント - インストール、設定、ワークフロー、およびトラブルシューティング

Hermes AI アシスタント - インストール、設定、ワークフロー、およびトラブルシューティング

開発者向け Hermes エージェントのインストールとクイックスタート

Hermes Agent(ヘルメス エージェント)は、ローカルマシンまたは低コストのVPSで動作する、モデル非依存の自己ホスト型AIアシスタントです。ターミナルおよびメッセージングインターフェースを通じて動作し、繰り返し行うタスクを再利用可能なスキルに変換することで、時間とともに性能を向上させていきます。

SGLang クイックスタート:OpenAI API を介して LLM のインストール、設定、およびサービス提供

SGLang クイックスタート:OpenAI API を介して LLM のインストール、設定、およびサービス提供

SGLang を使ってオープンモデルを高速に提供。

SGLang は、大規模言語モデルおよびマルチモーダルモデル向けの高パフォーマンスなサービングフレームワークであり、単一の GPU から分散クラスターに至るまで、低レイテンシかつ高スループットの推論を提供するために設計されています。

llama.swap モデル切り換え器の OpenAI 互換ローカル LLM 向けクイックスタート

llama.swap モデル切り換え器の OpenAI 互換ローカル LLM 向けクイックスタート

クライアントを変更せずにホットスワップ可能なローカル LLM。

まもなく vLLM や llama.cpp など、それぞれのスタックが独自のポートで稼働している状態に陥ります。下流のシステムはすべて**/v1というベース URL を求めるため、ポート、プロファイル、ワンオフスクリプトを頻繁に変更することになります。llama-swapは、これらのスタックの前に配置される/v1**プロキシです。

llama.cpp の CLI とサーバーによるクイックスタート

llama.cpp の CLI とサーバーによるクイックスタート

OpenCode のインストール、設定、および使用方法

ローカル推論には、llama.cpp に戻って利用する機会が多いです。Ollama 他が抽象化して隠している部分を自分で制御できるだけでなく、すぐに動作するからです。GGUFモデルを llama-cli で対話的に実行したり、llama-serverOpenAI 互換の HTTP API を公開したりするのが簡単です。