Oh My Opencode 専任エージェントの深掘りとモデルガイド

シジフォスとその専門エージェントチームをご紹介します。

目次

OpenCode の最大の能力向上は、専門化されたエージェントによるものです:オーケストレーション、計画、実行、調査の意図的な分離です。

「Oh My Opencode」はこのアイデアを、Sisyphusが異なる権限、プロンプト、モデルの選好を持つエージェントの「仮想チーム」全体を調整する「バッテリーインクルード」のハーネスにパッケージ化しています。

oh my opencode agents

これはエージェントとモデルルーティングへの深い探求です。もしあなたがこの旅の早い段階にいるなら:

より広い AI コーディングツールチェーンの文脈については、AI 開発者ツール概要 を参照してください。

Oh My Opencode とは何か、そして OpenCode をどのように拡張するか

OpenCode は、ターミナル向けに構築されたオープンソースの AI コーディングエージェントです。TUI(テキストユーザーインターフェース)を標準搭載しており、引数なしで opencode を実行するとデフォルトでその TUI が起動します。プロバイダーに柔軟に対応しており、ローカルモデルを含む大規模なプロバイダーカタログをサポートし、設定ファイルや /connect フローを通じてプロバイダー設定を公開し、クラウド API から Ollama エンドポイントに至るまで、パッチなしですべてを処理します。

Oh My Opencodeoh-my-openagent、あるいは単に「omo」とも呼ばれます)は、OpenCode を完全なマルチエージェントエンジニアリングシステムに変えるコミュニティプラグインです。以下を追加します:

  • 並列バックグラウンド実行機能を備えた Sisyphus オーケストレーションシステム
  • 明確なツール権限を持ち、モデルファミリーごとに調整されたプロンプトを持つ 11 種類の専門エージェント
  • エージェント内での IDE クラスのリファクタリングを実現する LSP + AST-Grep
  • Hashline — 古い行のエラーを排除するハッシュアンカー付き編集ツール(後述)
  • 組み込み MCPs:Exa(Web 検索)、Context7(公式ドキュメント)、Grep.app(GitHub 検索)。すべてデフォルトで有効
  • /init-deep — プロジェクト全体で階層構造の AGENTS.md ファイルを自動生成し、軽量なコンテキスト注入を実現

名前のちょっとした癖として:アップストリームリポジトリは現在 oh-my-openagent とブランドされていますが、プラグインパッケージとインストールコマンドでは引き続き oh-my-opencode が使用されています。メンテナはこれを「oh-mo」、あるいは単に「Sisyphus」と呼ぶことを提案しています。

Oh My Opencode が異なるモデルを異なるエージェントに割り当てる理由

Oh My Opencode は 1 つの基礎的なアイデアを基盤に構築されています:異なるモデルは異なるように思考し、各エージェントのプロンプトは 1 つのメンタルモデルのために書かれています。 Claude はメカニズム駆動のプロンプトに従います — 詳細なチェックリスト、テンプレート、段階的な手順。ルールが多ければ多いほど、遵守は高まります。GPT(特に 5.2+)は原則駆動のプロンプトに従います — 簡潔な原則、XML 構造、明確な判断基準。GPT に 1,100 行の Claude プロンプトを与えると、それは矛盾します。Claude に 121 行の GPT プロンプトを与えると、それは逸脱します。

これは、設定で回避できる癖ではありません。これはシステム設計そのものです。

実用的な結果は:エージェントのモデルを変更すると、発火するプロンプトも変更されます。 複数のモデルファミリーをサポートするエージェント(Prometheus、Atlas)は、isGptModel() 経由でランタイム時にモデルを検出し、自動的にプロンプトを切り替えます。サポートしていないエージェント(Sisyphus、Hephaestus)は、1 つのファミリーのために書かれたプロンプトしか持っておらず、それを誤ったファミリーに切り替えると出力が著しく劣化します。

Oh My Opencode の専門化されたエージェントがどのように協力するか

4 つのエージェントの人格グループ

エージェントは、最適化されているモデルファミリーに基づいて 4 つのグループに分類されます。これはシステムを理解するためにも、セルフホスティングの決定にも重要です。

グループ 1 — コミュニケーター(Claude / Kimi / GLM): Sisyphus と Metis。長く、メカニズム駆動のプロンプト(Sisyphus の場合約 1,100 行)。数十回のツール呼び出しにわたって複雑な多層指示を確実に従うモデルが必要です。Claude Opus が基準です。Kimi K2.5 と GLM-5 は、同様に動作する強力なコスト効果の高い代替案です。これらを古い GPT モデルに上書きしないようにしてください。

グループ 2 — ダブルプロンプト(Claude が推奨、GPT もサポート): Prometheus と Atlas。ランタイム時にモデルファミリーを自動検出し、適切なプロンプトに切り替えます。Claude は完全なメカニズム駆動バージョンを受け取り、GPT は同じ結果を約 121 行で達成するコンパクトな原則駆動バージョンを受け取ります。どちらを使用しても安全です。システムが切り替えを処理します。

グループ 3 — GPT ネイティブ(GPT-5.3-codex / GPT-5.4): Hephaestus、Oracle、Momus。原則駆動、自律的な実行スタイル。彼らのプロンプトは目標指向の独立した推論を前提としており、それが GPT が構築されたものです。Hephaestus にはフォールバックがなく、GPT アクセスが必要です。これらを Claude に上書きしないでください。動作は劣化します。

グループ 4 — ユーティリティランナー(知能よりも速度): Explore、Librarian、Multimodal Looker。grep、検索、検索を行います。意図的に利用可能な最も高速で安価なモデルを使用します。「Upgrade」する Explore を Opus にすることは、高級エンジニアに事務作業をさせるようなものです。これらはまた、ローカルモデルへの置換に最適な候補でもあります。

委任メカニズム

Oh My Opencode は委任のために 2 つの補完的なツールを使用します:

  • task()カテゴリベースの委任: visual-engineeringdeep のようなカテゴリを選択し、オプションでスキルを注入し、オプションでバックグラウンドで実行します
  • call_omo_agent()名前による特定エージェントの直接呼び出し、カテゴリルーティングをバイパスします

両方とも並列バックグラウンド実行をサポートし、プロバイダーごと、モデルごとに並列性が強制されます。

カテゴリはモデルルーティングのプリセットです

Sisyphus がサブエージェントに委任する際、モデル名ではなくカテゴリを選択します。カテゴリは自動的に適切なモデルにマッピングされます。

カテゴリ 用途 デフォルトモデル
visual-engineering フロントエンド、UI/UX、CSS、デザイン Gemini 3.1 Pro (high)
artistry クリエイティブ、新しいアプローチ Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain 難しいロジック、アーキテクチャの決定 GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus
deep 深層コーディング、複雑な複数ファイルのロジック GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high 一般的な複雑な作業 Claude Opus → GPT-5.4 (high) → GLM-5
unspecified-low 一般的な標準的な作業 Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick 単一ファイルの変更、単純なタスク Claude Haiku → Gemini Flash → GPT-5-Nano
writing テキスト、ドキュメント、文章 Gemini Flash → Claude Sonnet

カテゴリはセルフホスティングの適切な抽象化でもあります:カテゴリをローカルモデルにマッピングすると、そのカテゴリにルーティングされるすべてのタスクが自動的にそれを使用します。

モデル解決順序

エージェントリクエスト → ユーザーの上書き(設定されている場合) → フォールバックチェーン → システムデフォルト

同じモデルが複数のプロバイダーから利用可能な場合のプロバイダー優先順位:

ネイティブ (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Oh My Opencode エージェント:役割とモデル要件付き完全カタログ

オーケストレーター

Sisyphus

目的: メインオーケストレーター。計画し、委任し、積極的な並列実行を通じてタスクを完了まで推進します。
グループ: コミュニケーター (Claude / Kimi / GLM)
役割: コードベース全体を調整するチームリーダー。約 1,100 行のメカニズム駆動プロンプトは、数十回のツール呼び出しにわたってすべてのステップに従い、追跡を失わないモデルを必要とします。

⚠️ Sisyphus を古い GPT モデルに上書きしないでください。GPT-5.4 には専用のプロンプトパスがありますが、推奨デフォルトではありません。Claude Opus が基準です。

フォールバックチェーン: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
セルフホスティング: Sisyphus はローカルで実行する最も難しいエージェントです。そのプロンプトの複雑さは、長いツール呼び出しシーケンスにわたって強力な指示追従機能を持つモデルに依存します。ローカル Qwen3-coder や DeepSeek-Coder-V3 は単純なタスクには機能するかもしれませんが、マルチエージェント調整を必要とするワークフローでは劣化が予想されます。セルフホスティングする場合は、並列実行を有効にする前に、単一エージェントタスクでテストしてください。


Atlas

目的: 「Todo リストオーケストレーター」。完了と順序付けを強制することで、構造化された計画を推進し続けます。
グループ: ダブルプロンプト (Claude が推奨、GPT もサポート)
役割: Sisyphus が全体像を処理している間、Atlas はチェックリストを推進します。ランタイム時にモデルファミリーを自動検出し、プロンプトを切り替えます。

フォールバックチェーン: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
セルフホスティング: 高速で信頼性の高いローカルコーダーモデルは、Sisyphus のオーケストレーションよりも構造化されたタスクであるため、Atlas スタイルの「チェックリストを推進する」仕事を十分に処理します。32k+ コンテキストの Qwen3-coder は、実用的な出発点です。


計画エージェント

計画層は「行動前に思考する」を強制します:要件収集、ギャップ検出、計画批判は、すべての実行エージェントがタスクを見る前に発生します。

Prometheus

目的: インタビュースタイルのワークフローを持つ戦略的プランナー。Tab キーを押すか、/start-work を実行するとアクティブになります。
グループ: ダブルプロンプト (Claude が推奨、GPT もサポート)
役割: 実際のエンジニアのようにあなたをインタビューします — スコープを特定し、曖昧さを表面化し、1 行のコードも触れる前に検証された計画を作成します。GPT バージョンは約 121 行で同じことを達成し、Claude バージョンは 7 ファイルにわたって約 1,100 行を使用します。
協力: 実行前に Metis(ギャップ検出)と Momus(計画検証)と協力します。

フォールバックチェーン: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5google/gemini-3.1-pro
セルフホスティング: 低温の強力な指示追従ローカルモデルであれば機能します。モデルが長いマルチターンインタビューにわたって制約と受け入れ基準をコンテキスト内に保持できない場合、計画品質は劣化します。最小 64k コンテキストウィンドウを推奨します。


Metis

目的: プレプランニングコンサルタントとギャップアナライザー。創造的なギャップ検出を促すために、他のエージェントより高い温度で実行されます。
グループ: コミュニケーター (Claude が推奨)
役割: 実行前の「何を見落としたか?」レビュアー — コード作成の労働者ではなく、計画品質管理物語の一部です。
協力: 計画が最終化される前に Prometheus によって呼び出されます。

フォールバックチェーン: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5k2p5
セルフホスティング: 推論能力を持つローカルモデルで問題ありません。Metis に実際にエッジケースを表面化させたい場合は温度をゼロにしないようにしてください。0 に設定すると、それは単なるスタンプ台になってしまいます。


Momus

目的: 容赦ない計画レビュアー。明確性と検証基準を強制します。厳格な「OK または却下」ゲートとして動作できます。
グループ: GPT ネイティブ
役割: 計画に対する QA マインドの批評家。ツールの制限により、実行モードではなくレビューモードに留まります。
協力: 計画作成後に使用され、作業開始前に実現可能性に挑戦します。

フォールバックチェーン: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
セルフホスティング: セルフホスティングする場合は、サンプリングを非常に低く保ってください。Momus の目的はすべて、安定した再現可能な批評です。ここで必要なのは創造性ではありません。温度 0.1 以下の強力なローカル推論モデルが適切な設定です。


ワーカーエージェント

Hephaestus

目的: 自律的な深層ワーカー。レシピではなく目標を与えます。
グループ: GPT ネイティブ — GPT-5.3 Codex のみ
役割: 1 日中部屋に残ってコーディングする専門家。コードベースを探検し、パターンを調査し、絶え間ない監視なしにエンドツーエンドで実行します。メンテナはこれを「正当な職人」と呼びます(OpenCode をブロックする Anthropic の決定への意図的な参照)。

⚠️ フォールバックチェーンなし — GPT アクセスが必要。 このエージェントには Claude プロンプトはありません。OpenAI または GitHub Copilot なしで実行すると、実行できません。「GPT-5.3-codex-spark」は存在しますが、明示的に推奨されていません — コンテキストを過度に圧縮するため、Oh My Opencode のコンテキスト管理が破綻します。

フォールバックチェーン: openai/gpt-5.3-codex (medium) — フォールバックなし
セルフホスティング: 今日では Hephaestus の実行可能なローカル代替案はありません。そのプロンプトは GPT-Codex の原則駆動、自律的な探検スタイル围绕着に構築されています。完全にローカルスタックで深層ワーカーが必要な場合は、代わりに deep カテゴリを持つ Sisyphus-Junior を使用してください(これは GPT-5.3 Codex にルーティングするか、それがない場合は Claude Opus にフォールバックします)。


Sisyphus-Junior

目的: 委任システムによって使用されるカテゴリ生成されたエグゼキューター。
グループ: それを起動したカテゴリから継承
役割: カテゴリ設定からモデルを継承する「専門家請負人」。task() を介して動的に作成され、多くの場合スキルが注入され、並列化のためにバックグラウンドで実行できます。能力が割り当てたカテゴリによって完全に決定される空白のワーカーと考えることができます。

フォールバックチェーン: anthropic/claude-sonnet-4-6 (デフォルト); 実際には起動カテゴリから継承
セルフホスティング: Sisyphus-Junior はセルフホスティングを開始する最も実用的な場所です。oh-my-opencode.jsonc で各カテゴリをローカルモデルにマッピングすると、カテゴリ生成されたすべてのタスクが自動的にそれを使用します。quick(単純なタスク)から始めて、それが機能することを確認し、deepultrabrain にルーティングされるものを触れる前に unspecified-low に拡張してください。


専門サブエージェント

Oracle

目的: アーキテクチャ決定と複雑なデバッグのための読み取り専用相談。
グループ: GPT ネイティブ
役割: シニアアーキテクトと「最後の砦」のデバッガー。書き込みと委任ツールから意図的に制限されており、その出力は助言的に留まります。Oracle を大きな作業後、繰り返し失敗後、または高リスクのアーキテクチャ決定の前に呼び出します。

フォールバックチェーン: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
セルフホスティング: Oracle をセルフホスティングする場合は、最も強力なローカル推論モデルを選択し、サンプリングを非常に低く保ってください。複雑なアーキテクチャ質問に対して、有能なローカル推論機と GPT-5.4 の出力品質の差は有意義です。ハイブリッド構成では、Oracle はクラウドモデルに置いておく価値のあるエージェントの一つであり、ユーティリティ作業をローカルに移すことができます。


Librarian

目的: 外部ドキュメントとオープンソース調査。
グループ: ユーティリティランナー
役割: ドキュメントと証拠収集者。ツールの制限により編集が防止され、ソース収集と要約に集中します。Explore と並列実行し、「リポジトリ内 + リポジトリ外」の証拠収集を組み合わせて設計されています。

フォールバックチェーン: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
セルフホスティング: 最初に完全にローカルに移すべき最良のエージェントです。Librarian の仕事は検索と要約であり、深い推論ではありません。信頼性の高いツール呼び出しを持つあらゆるローカルモデルがそれをよく処理します。7B や 13B のモデルでも、逸脱することなく「検索、収集、報告」のパターンに従えるなら十分です。


Explore

目的: コンテキスト付き grep と高速コードベース検索。
グループ: ユーティリティランナー
役割: 「関連ファイルとパターンを探してほしい」エージェント。非自明な質問に対してこれらを 10 個並列で発火し、それぞれをコードベースの異なる領域にスコープし、その後オーケストレーターに結果を統合させます。

フォールバックチェーン: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
セルフホスティング: Librarian と同様に、Explore はローカル推論の最良の出発点です。その仕事はパターンマッチングと構造化された報告であり、モデルは深い推論を必要とせず、高速で信頼性の高いツール呼び出しと適度な指示追従だけです。小さなローカルコーダーモデル(Qwen2.5-Coder-7B など)を高速スループットで使用するとよく機能します。


Multimodal Looker

目的: ビジョンアナリストと「図表リーダー」。look_at ワークフロー経由で画像と PDF を分析します。
グループ: ユーティリティランナー (ビジョン必須)
役割: 副作用を防ぎ、純粋に解釈的であるために、ツールが厳しく制限されています(読み取り専用)。UI スクリーンショット、アーキテクチャ図、または PDF ページをワークフローに投入する必要がある場合に使用されます。

Kimi K2.5 は、マルチモーダル理解に優れていることが特に指摘されており、それがこのフォールバックチェーンで上位に位置する理由です。

フォールバックチェーン: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
セルフホスティング: ローカルビジョンには、堅牢なツール呼び出しと十分なコンテキストを持つマルチモーダルモデルが必要です。ローカルスタックがまだ準備できていない場合は、Multimodal Looker をクラウドモデルに置いておいてください。誤設定されたローカルビジョンパイプラインは、有用なエラーではなく、沈黙のゴミを生成します。


Oh My Opencode モデルルーティング:フォールバックチェーンとプロバイダー優先順位

エージェントごとのデフォルトと「単一のグローバルモデルなし」設計

Oh My Opencode は単一のグローバルモデルではなく、エージェントごとのモデルデフォルトとフォールバックチェーンを備えています。この設計は意図的に意見を持っています:

  • Explore と Librarian は深い推論を必要としないため、最も安価で高速なモデルを使用します
  • Oracle と Momus は出力が実行をゲートするため、最高能力のモデルを使用します
  • Sisyphus と Prometheus はデフォルトで最良のオーケストレーションクラスモデルを受けます

OpenCode Go ティア(月額 10 ドル)

OpenCode Go は、OpenCode インフラストラクチャを通じて中国のフロンティアモデルへの信頼できるアクセスを提供するサブスクリプションティアです。プレミアムネイティブプロバイダーとフリーティアの代替案の間の橋渡しとして、多くのフォールバックチェーンの中間に表示されます。

OpenCode Go 経由のモデル 使用エージェント
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Anthropic または OpenAI のサブスクリプションがない場合、OpenCode Go と GitHub Copilot の組み合わせで、フォールバックチェーンの大部分を低コストでカバーできます。

GitHub Copilot 用のプロバイダーマッピング

GitHub Copilot が利用可能な最良のプロバイダーである場合、エージェント割り当ては以下の通りです:

エージェント モデル
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

プロンプト変種はモデルファミリーを追跡します

エージェントを Claude から GPT または Gemini に切り替えた場合、Oh My Opencode は同じプロンプトを使用しません。複数のファミリーをサポートするエージェント(Prometheus、Atlas)は isGptModel() を介して自動検出し、切り替えます。複数のファミリーをサポートしていないエージェント(Sisyphus、Hephaestus)は 1 つのプロンプトしか持っておらず、誤ったファミリーに切り替えると出力が劣化します。

モデル変更後、エージェントの出力が変に感じたら、モデルファミリーの境界を越えたかどうかを確認し、元に戻してください。


セルフホスティングとローカルモデルを使用した Oh My Opencode の実行

設定には 2 つの層があります:

  1. OpenCode がローカルプロバイダーとモデル ID について知る必要があります
  2. Oh My Opencode がどのエージェントがどのモデルを使用するかを知らなければなりません(設計上、ほとんどのエージェントは UI で選択されたモデルを無視するため)

今日現実的にローカルで実行できるもの

エージェント ローカルでの実現可能性 推奨アプローチ
Explore ✅ 優秀 任意の高速ローカルコーダーモデル(Qwen2.5-Coder-7B+)
Librarian ✅ 優秀 信頼性の高いツール呼び出しを持つ任意の高速ローカルモデル
Sisyphus-Junior (quick カテゴリ) ✅ 良い 簡単なタスク用の小さなコーダーモデル
Atlas ⚠️ 可能 中規模モデル(13B+)、32k+ コンテキスト
Prometheus ⚠️ 可能 強力な指示追従、64k+ コンテキスト、低温
Metis ⚠️ 可能 推論能力あり、温度をゼロにしない
Momus ⚠️ 可能 推論能力あり、非常に低い温度
Sisyphus ⚠️ 部分的 単純な単一エージェントタスクのみ;マルチエージェントオーケストレーションには Claude クラスのモデルが必要
Oracle ❌ 推奨されない クラウドに置く;複雑なクエリでは品質ギャップが大きい
Hephaestus ❌ ローカルパスなし GPT-5.3-codex が必要;Claude またはローカル同等品なし

ステップ 1 — ローカルプロバイダーを OpenCode に追加

OpenCode は、プロバイダー設定でローカルモデルとカスタム baseURL 値をサポートします — Ollama、vLLM、および任意の OpenAI 互換エンドポイントは第一級オプションです。OpenCode クイックスタート でプロバイダー認証の詳細をカバーしています。

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

vLLM または LM Studio の場合も同じパターンが適用されます — baseURL をサーバーの /v1 エンドポイントに指し、ロードしたモデルをリストするだけです。

OpenCode はオーケストレーションエージェントのために少なくとも 64k コンテキストウィンドウを必要とします。それより小さいと、ワークフロー途中で切り捨てエラーが発生します。

ステップ 2 — Oh My Opencode 設定でエージェントモデルを上書き

設定場所(プロジェクトがユーザーレベルより優先されます):

  • .opencode/oh-my-opencode.jsonc(プロジェクトレベル、最高優先度)
  • ~/.config/opencode/oh-my-opencode.jsonc(ユーザーレベル)

実用的なハイブリッド設定 — ユーティリティエージェントにはローカル推論、推論にはクラウド:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // ユーティリティエージェント:高速なローカルモデルで十分
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior のクイックモード:ローカルで問題なし
    //(以下のカテゴリを介して制御)

    // 推論エージェントをクラウドに保つ
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus:触らない — GPT-5.3-codex が必要、フォールバックなし
  },

  "categories": {
    // 単純な生成タスクをローカルモデルにルーティング
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // 重度の推論をクラウドに保つ
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // ローカルエンドポイントはより多くの並列性を処理可能
      "openai": 2,    // プランの制限内に留まる
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
  }
}

完全なセルフホスティングのコスト意識的な代替案

ローカル GPU セットアップにコミットする前に、OpenCode Go + Kimi for Coding スタックを検討してください。合計約 11 ドル/月で、以下をカバーします:

  • Sisyphus と Atlas 用の Kimi K2.5(低コストで Claude クラスのオーケストレーション品質)
  • Prometheus、Metis、Momus 用の GLM-5(堅牢な推論、フリーティア利用可能)
  • Librarian と Explore 用の MiniMax M2.5(高速検索)

ほとんどのワークロードでは、これはローカル推論サーバーを実行するよりも安価で、GPU ハードウェアも必要ありません。


Oh My Opencode 組み込みツール:Hashline、Init-Deep、Ralph Loop、および MCPs

Hashline — ハッシュアンカー付き編集ツール

Oh My Opencode の最も実用的な改善の 1 つは、コード編集の処理方法です。エージェントが読み取るすべての行は、コンテンツハッシュでタグ付けされます:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

エージェントがこれらのタグを参照して編集する場合、ファイルが最後の読み取りから変更された場合、ハッシュが一致せず、破損する前に編集が拒否されます。これにより、エージェントが自信を持ってもはや存在しない行を編集する「古い行」エラーの entire クラスを排除します。この変更だけで、Grok Code Fast の編集タスクの成功率は 6.7% から 68.3% へと向上しました。

/init-deep — 階層コンテキスト注入

/init-deep を実行すると、Oh My Opencode はプロジェクトツリーのすべての関連レベルで AGENTS.md ファイルを生成します:

project/
├── AGENTS.md              ← プロジェクト全体コンテキスト
├── src/
│   ├── AGENTS.md          ← src 固有コンテキスト
│   └── components/
│       └── AGENTS.md      ← コンポーネント固有コンテキスト

エージェントは自動的にそのスコープの関連コンテキストを読み取ります。すべての実行の開始時にリポジトリ全体をコンテキストに読み込むのではなく、各エージェントは自分が作業している場所に関連するものだけを呼び込みます。

Prometheus 計画モード — /start-work

複雑なタスクの場合、単にプロンプトを入力して希望するだけでなく、Tab キーを押して Prometheus モードに入るか、/start-work を使用してください。Prometheus は実際のエンジニアのようにあなたをインタビューします:スコープを特定し、曖昧さを表面化し、実行エージェントが動く前に検証された計画を作成します。「決定完了」基準は、計画が実装者にゼロの決定を残すことを意味します。

Ralph Loop — /ulw-loop

タスクが 100% 完了するまで止まらない自己参照実行ループです。システムが自己検証し、あなたの関与なしに継続することを望む大規模なマルチステップタスクに使用します。これは積極的です — 高価なクラウドプロバイダーで実行する前に、並列制限が設定されていることを確認してください。

組み込み MCPs

3 つの MCP サーバーが事前に構成され、常時有効です:

  • Exa — Web 検索
  • Context7 — 公式ドキュメント検索
  • Grep.app — 公開リポジトリ全体での GitHub コード検索

これらを設定する必要はありません。デフォルトですべてのエージェントで利用可能です。


実践的な結果とコミュニティベンチマーク、およびこれらのエージェントが実際にどのように動作するかについては、Oh My Opencode 体験記事 を参照してください。プラグインを最初からインストールするには、Oh My Opencode クイックスタート から始めてください。