LLM

LocalAI QuickStart: ローカルで OpenAI 互換 LLM を実行する

LocalAI QuickStart: ローカルで OpenAI 互換 LLM を実行する

数分で LocalAI を使用して、OpenAI 互換 API をセルフホストできます。

LocalAI は、ご自身のハードウェア(ノート PC、ワークステーション、オンプレミスサーバー)上で AI ワークロードを実行できるように設計された、自己完結型でローカルファーストの推論サーバーです。これは、OpenAI API と互換性のある「差し替え可能な」APIとして動作します。

llama.cpp の CLI とサーバーを使用したクイックスタート

llama.cpp の CLI とサーバーを使用したクイックスタート

「OpenCode のインストール、設定、および使用方法」

llama.cpp(https://www.glukhov.org/ja/llm-hosting/llama-cpp/ “llama.cpp”)はローカルでの推論に最適です。Ollamaや他のツールが抽象化しているコントロールを提供し、簡単に動作します。llama-cliを使用してGGUFモデルをインタラクティブに実行したり、llama-serverを使用してOpenAIと互換性のあるHTTP APIを公開したりするのが簡単です。

OpenCode クイックスタート: インストール、設定、およびターミナルAIコーディングエージェントの使用

OpenCode クイックスタート: インストール、設定、およびターミナルAIコーディングエージェントの使用

「OpenCode のインストール、設定、および使用方法」

OpenCodeは、ターミナル(TUI + CLI)で動作するオープンソースのAIコーディングエージェントです。オプションでデスクトップやIDEのインターフェースも利用可能です。これはOpenCode Quickstartです:インストール、検証、モデル/プロバイダーの接続、そして実際のワークフロー(CLI + API)の実行。

GoでTemporalを使用したワークフロー応用の実装: 完全ガイド

GoでTemporalを使用したワークフロー応用の実装: 完全ガイド

GoでTemporal SDKを使用してワークフローを構築する

Temporal は、開発者がGoなどの馴染みのあるプログラミング言語を使って、耐障害性があり、拡張性があり、信頼性の高いワークフロー アプリケーションを構築できるオープンソースで、企業向けのワークフロー エンジンです。Go など。

LLMシステムの観測性:メトリクス、トレース、ログ、および本番環境でのテスト

LLMシステムの観測性:メトリクス、トレース、ログ、および本番環境でのテスト

LLM推論およびLLMアプリケーション向けのエンドトゥーエンドの観測性戦略

LLMシステムは、従来のAPIモニタリングでは表面化できない方法で失敗します。キューが静かに満たされ、GPUメモリがCPUが忙しくなる前に飽和し、レイテンシがアプリケーション層ではなくバッチング層で爆発します。本ガイドでは、LLM推論およびLLMアプリケーション向けのエンドツーエンドの観測性戦略について説明します。測定すべき項目、Prometheus、OpenTelemetry、Grafanaを使ってどのようにインストゥルメント化するか、そしてテレメトリーパイプラインをスケールしてデプロイする方法をカバーします。

RAGにおけるチャンキング戦略の比較:代替案、トレードオフ、および例

RAGにおけるチャンキング戦略の比較:代替案、トレードオフ、および例

RAGにおけるチャンキング戦略の比較

Chunking は、Retrieval ‑ Augmented Generation (RAG) において 最も過小評価されている ハイパラメータです。
静かに、LLM が「何を見ているか」を決定し、インジェストのコストをどのくらい高めるか、そしてLLMのコンテキストウィンドウがどのくらい使われるかを決めています。

プロダクションでの可観測性: モニタリング、メトリクス、Prometheus & Grafanaガイド(2026)

プロダクションでの可観測性: モニタリング、メトリクス、Prometheus & Grafanaガイド(2026)

プロダクションシステムのメトリクス、ダッシュボード、アラート — Prometheus、Grafana、Kubernetes、およびAIワークロード。

観測性は、信頼性のある運用システムの基礎です。

メトリクス、ダッシュボード、アラートがなければ、Kubernetesクラスタはドリフトし、AIワークロードは静かに失敗し、レイテンシーの回帰はユーザーが文句を言うまで気づかれません。

LLMのセルフホスティングとAI主権

LLMのセルフホスティングとAI主権

セルフホストされたLLMでデータとモデルを制御する

LLMを自社でホストすることで、データ、モデル、推論を自らの管理下に置くことができます。これは、チームや企業、国家にとっても実用的な**AI主権**への道です。

16GB VRAM GPU上でOllamaを使用したLLMの性能比較

16GB VRAM GPU上でOllamaを使用したLLMの性能比較

RTX 4080(16GB VRAM)でのLLM速度テスト

大規模言語モデルをローカルで実行すると、プライバシーの確保、オフラインでの使用が可能になり、APIコストはゼロになります。このベンチマークでは、RTX 4080上で動作する14のポピュラーなLLMs on Ollamaから期待できる性能が明らかになります。