AI

GPU および永続的なモデルストレージを使用する Docker Compose での Ollama

GPU および永続的なモデルストレージを使用する Docker Compose での Ollama

GPU および永続性を備えた Compose ファーストの Ollama サーバー。

Ollama は、メタル(物理マシン)上で非常に良好に動作します。それをサービスとして扱うと、さらに興味深くなります。安定したエンドポイント、固定されたバージョン、永続的なストレージ、そして GPU が利用可能か不可かの明確な状態が確保されます。

SGLang クイックスタート:OpenAI API を介して LLM のインストール、設定、およびサービス提供

SGLang クイックスタート:OpenAI API を介して LLM のインストール、設定、およびサービス提供

SGLang を使ってオープンモデルを高速に提供。

SGLang は、大規模言語モデルおよびマルチモーダルモデル向けの高パフォーマンスなサービングフレームワークであり、単一の GPU から分散クラスターに至るまで、低レイテンシかつ高スループットの推論を提供するために設計されています。

llama.swap モデル切り換え器の OpenAI 互換ローカル LLM 向けクイックスタート

llama.swap モデル切り換え器の OpenAI 互換ローカル LLM 向けクイックスタート

クライアントを変更せずにホットスワップ可能なローカル LLM。

まもなく vLLM や llama.cpp など、それぞれのスタックが独自のポートで稼働している状態に陥ります。下流のシステムはすべて**/v1というベース URL を求めるため、ポート、プロファイル、ワンオフスクリプトを頻繁に変更することになります。llama-swapは、これらのスタックの前に配置される/v1**プロキシです。

LocalAI QuickStart: ローカルで OpenAI 互換 LLM を実行する

LocalAI QuickStart: ローカルで OpenAI 互換 LLM を実行する

数分で LocalAI を使用して、OpenAI 互換 API をセルフホストできます。

LocalAI は、ご自身のハードウェア(ノート PC、ワークステーション、オンプレミスサーバー)上で AI ワークロードを実行できるように設計された、自己完結型でローカルファーストの推論サーバーです。これは、OpenAI API と互換性のある「差し替え可能な」APIとして動作します。

llama.cpp の CLI とサーバーによるクイックスタート

llama.cpp の CLI とサーバーによるクイックスタート

OpenCode のインストール、設定、および使用方法

ローカル推論には、llama.cpp に戻って利用する機会が多いです。Ollama 他が抽象化して隠している部分を自分で制御できるだけでなく、すぐに動作するからです。GGUFモデルを llama-cli で対話的に実行したり、llama-serverOpenAI 互換の HTTP API を公開したりするのが簡単です。

AI 開発ツール:AI 駆動型開発の完全ガイド

AI 開発ツール:AI 駆動型開発の完全ガイド

人工知能(AI)は、ソフトウェアの作成、レビュー、デプロイ、保守の方法を再定義しています。AI コーディングアシスタントから GitOps 自動化、DevOps ワークフローに至るまで、開発者は現在、ソフトウェアライフサイクル全体にわたって AI 駆動のツールに依存しています。

このページは、本サイト内の AI 開発者ツールに関する中央ハブです。チュートリアル、比較、チートシート、そして現代的な AI 支援開発ワークフローへの深い洞察へと接続します。

OpenCodeクイックスタート:ターミナルAIコーディングエージェントのインストール、設定、および使用方法

OpenCodeクイックスタート:ターミナルAIコーディングエージェントのインストール、設定、および使用方法

OpenCode のインストール、設定、および使用方法

OpenCode は、ターミナル(TUI + CLI)で実行できるオープンソースの AI コーディングエージェントです。オプションとしてデスクトップおよび IDE 用のインターフェースも提供されます。こちらが OpenCode クイックスタート です:インストール、動作確認、モデル/プロバイダーの接続、および実際のワークフロー(CLI + API)の実行について解説します。

開発者とDevOps向けのAirtable - プラン、API、Webhook、およびGo/Pythonの例

開発者とDevOps向けのAirtable - プラン、API、Webhook、およびGo/Pythonの例

Airtable - 無料プランの制限、API、Webhook、GoおよびPython。

Airtableは、協力的な「データベースに似た」スプレッドシートUIを中心に構築された低コードアプリケーションプラットフォームと考えるのが最も適切です。これは、非開発者が友好的なインターフェースを必要とするが、開発者も自動化と統合のためにAPI表面が必要な場合に、運用ツール(内部トラッカー、軽量なCRM、コンテンツパイプライン、AI評価キュー)を迅速に作成するのに非常に適しています。