LLM

AIシステムメモリ — 永続的知識とエージェントメモリ

AIシステムメモリ — 永続的知識とエージェントメモリ

単一のチャットスレッドを超えた永続的な知識

このセクションでは、AIシステムにおける永続的な知識とメモリに関するガイドをまとめています。アシスタントがトークンを1つのプロンプトにすべて詰め込むことなく、セッション間で事実、設定、抽出された文脈をどのように保持するかについて解説します。ここで言うメモリとは、GPUのRAMやモデルの重みではなく、意図的な保持(ユーザーの事実、サマリー、プラグインによるストア)を指します。

エージェント・メモリ・プロバイダー比較 — Honcho、Mem0、Hindsight、およびその他5つ

エージェント・メモリ・プロバイダー比較 — Honcho、Mem0、Hindsight、およびその他5つ

永続的なエージェントメモリ用の8つのプラグイン対応バックエンド。

タブを閉じると、コンテキストウィンドウを超えて情報が保持されない限り、最新のAIアシスタントはすべての情報を忘れてしまいます。エージェントメモリプロバイダーは、セッション間で事実や要約を保持するサービスまたはライブラリです。これらは通常プラグインとして組み込まれ、フレームワーク自体を軽量に保ちつつ、メモリ機能を拡張することができます。

このガイドでは、Hermes Agentの外部メモリプラグインとして提供される8つのバックエンド(Honcho、OpenViking、Mem0、Hindsight、Holographic、RetainDB、ByteRover、Supermemory)を比較し、それらがより広範な**AIシステムスタックにどのように適合するかを説明します。同じベンダーは、コミュニティまたは公式の統合を通じてOpenClawや他のエージェントツールでも利用されています。AIシステムメモリハブ**では、この記事をCogneeや関連ガイドとともにリストアップしています。

Hermes固有のバウンデッドコアメモリ(MEMORY.mdおよびUSER.md)、フリーズ動作、トリガーについては、**Hermes Agentメモリシステム**をご参照ください。

Hermes エージェントメモリシステム:永続的なAIメモリが実際にどのように機能するか

Hermes エージェントメモリシステム:永続的なAIメモリが実際にどのように機能するか

メモリは、ツールとパートナーの違いを決定づける。

ご存知の通り、AIエージェントとのチャットを開き、プロジェクトの説明、好みなどを伝え、作業を進めて、タブを閉じます。翌週に戻ってみると、まるで初めて話す陌生人のよう——すべての文脈が消え、あらゆる好みが忘れ去られ、プロジェクトの説明を最初からやり直すことになります。

開発者向け Claude Skills と SKILL.md:VS Code、JetBrains、Cursor

開発者向け Claude Skills と SKILL.md:VS Code、JetBrains、Cursor

実務で生き抜く Claude Skills を構築する

多くのチームは、Claude Skills を 2 つの方法のいずれかで誤用しています。SKILL.md を何でもありの dumping ground(ごみ箱)にするか、巨大なコピペプロンプトから卒業できないかのどちらかです。

本番環境向けのHermes AIアシスタントスキル

本番環境向けのHermes AIアシスタントスキル

本格的なワークロード向けのプロファイルファーストなHermes設定

公式にはHermes Agentとして文書化されているHermes AIアシスタントは、単なるチャットラッパーとして位置づけられてはいません。

OpenClaw プラグイン — エコシステムガイドと実用的な選択

OpenClaw プラグイン — エコシステムガイドと実用的な選択

まずはプラグイン。スキルの名称を簡潔に。

この記事は、チャネル、モデルプロバイダー、ツール、音声、メモリ、メディア、Web 検索、その他ランタイムの表面機能などを追加するネイティブゲートウェイパッケージであるOpenClaw プラグインについて解説します。

Vane(Perplexica 2.0)Ollama と llama.cpp を使用したクイックスタート

Vane(Perplexica 2.0)Ollama と llama.cpp を使用したクイックスタート

ローカル LLM を活用したセルフホスティング AI 検索

Vane は、「出典付き AI 検索」領域において、より実用的な選択肢の一つです。これは、リアルタイムのウェブ取得とローカルまたはクラウド上の LLM(大規模言語モデル)を組み合わせた、セルフホスティング可能な回答エンジンであり、スタック全体をユーザーの管理下に置くことができます。

Ollama、llama.cpp用のClaude Codeのインストールと設定、および料金

Ollama、llama.cpp用のClaude Codeのインストールと設定、および料金

ローカルモデルバックエンドに対応したエージェンティックコーディング

Claude Codeは、マーケティングが上手な自動補完ツールではありません。これはエージェント型コーディングツールです。コードベースを読み取り、ファイルを編集し、コマンドを実行し、開発ツールと統合します。

Hermes AI アシスタント - インストール、設定、ワークフロー、およびトラブルシューティング

Hermes AI アシスタント - インストール、設定、ワークフロー、およびトラブルシューティング

開発者向け Hermes エージェントのインストールとクイックスタート

Hermes Agent(ヘルメス エージェント)は、ローカルマシンまたは低コストのVPSで動作する、モデル非依存の自己ホスト型AIアシスタントです。ターミナルおよびメッセージングインターフェースを通じて動作し、繰り返し行うタスクを再利用可能なスキルに変換することで、時間とともに性能を向上させていきます。