LLM

DGX Spark AUの価格:主要小売店では6,249ドルから7,999ドルまで

DGX Spark AUの価格:主要小売店では6,249ドルから7,999ドルまで

今やオーストラリアの小売業者から実際のAUD価格が提供されています。

NVIDIA DGX Spark (GB10 Grace Blackwell)は オーストラリアで今すぐ購入可能 の主要PC小売店で在庫あり。

グローバルDGX Sparkの価格と入手方法を ご存知の方は、オーストラリアの価格がストレージ構成や小売店によって 6,249〜7,999オーストラリアドル と幅があることをご存知でしょう。

AIスロープの検出:技術と警鐘

AIスロープの検出:技術と警鐘

AI生成コンテンツの検出に関する技術ガイド

AI生成コンテンツの増加により、新たな課題が生じています。それは、本物の人の書き方と「AIスロップ」(https://www.glukhov.org/ja/post/2025/12/ai-slop-detection/ “AIスロップ”)を区別することです。AIスロップとは、低品質で大量生産された合成テキストのことです。

「Cogneeに最適なLLMの選定:ローカルでのOllamaセットアップ」

「Cogneeに最適なLLMの選定:ローカルでのOllamaセットアップ」

LLMを自社でホストするCogneeについての考察

最適なLLMの選定は、グラフ構築の品質、幻覚率、ハードウェアの制約をバランスよく考慮する必要があります。
Cogneeは、Ollama](https://www.glukhov.org/ja/post/2024/12/ollama-cheatsheet/ “Ollama cheatsheet”)を通じて32B以上の低幻覚モデルで優れたパフォーマンスを発揮しますが、軽量な構成では中規模のオプションも利用可能です。

PythonでOllama Web Search APIを使用する

PythonでOllama Web Search APIを使用する

PythonとOllamaを使ってAI検索エージェントを構築する

OllamaのPythonライブラリは、今やOLlama web searchのネイティブな機能を含んでいます。わずか数行のコードで、ローカルのLLMをインターネット上のリアルタイム情報を補完し、幻覚を減らし、正確性を向上させることができます。

RAG用ベクター ストアの比較

RAG用ベクター ストアの比較

RAGスタックに適したベクトルDBを選びましょう

正しいベクトルストアを選択することで、RAGアプリケーションの性能、コスト、拡張性が大きく左右されます。この包括的な比較では、2024年~2025年の最も人気のあるオプションをカバーしています。

GoでOllama Web Search APIを使用する

GoでOllama Web Search APIを使用する

GoとOllamaを使ってAI検索エージェントを構築する

OllamaのWeb検索APIは、ローカルLLMにリアルタイムのウェブ情報を補完する機能を提供します。このガイドでは、GoでのWeb検索の実装について、単純なAPI呼び出しからフル機能の検索エージェントまでの実装方法を示します。

AI/MLオーケストレーション用のGoマイクロサービス

AI/MLオーケストレーション用のGoマイクロサービス

Goマイクロサービスを使用して堅牢なAI/MLパイプラインを構築しましょう

AIおよび機械学習(ML)ワークロードがますます複雑になるにつれて、強固なオーケストレーションシステムの必要性が高まっています。Goのシンプルさ、パフォーマンス、並行処理能力は、MLパイプラインのオーケストレーションレイヤーを構築する際に理想的な選択肢です。モデル自体がPythonで書かれている場合でも、Goは理想的な選択肢です。https://www.glukhov.org/ja/post/2025/11/go-microservices-for-ai-ml-orchestration-patterns/ “Go in ML orchestration pipelines”。

コンシューマーハードウェア上のAIインフラ

コンシューマーハードウェア上のAIインフラ

予算のハードウェアでオープンモデルを使用して企業向けAIを展開

AIの民主化はここにあります。 Llama 3、Mixtral、QwenなどのオープンソースLLMが、今やプロプライエタリモデルと同等の性能を発揮するようになり、チームは消費者ハードウェアを使用して強力なAIインフラストラクチャを構築できるようになりました。これにより、コストを削減しながらも、データプライバシーやデプロイメントに関する完全なコントロールを維持することが可能です。

PythonでFLUX.1-dev GGUF Q8を実行しています

PythonでFLUX.1-dev GGUF Q8を実行しています

GGUF量子化でFLUX.1-devを高速化

FLUX.1-dev は、驚くほど美しい画像を生成できる強力なテキストから画像生成モデルですが、24GB以上のメモリが必要なため、多くのシステムでは実行が難しいです。 GGUF量化されたFLUX.1-dev は、メモリ使用量を約50%削減しながらも、優れた画像品質を維持するという解決策を提供します。