LLM

検索 vs ディープサーチ vs ディープリサーチ

検索 vs ディープサーチ vs ディープリサーチ

どれほど違いがあるのでしょうか?

  • 検索は、キーワードを使用して情報を迅速かつ直接的に検索するのに最適です。
  • Deep Search は、文脈や意図を理解し、複雑なクエリに対してより関連性が高く、包括的な結果を提供する点で優れています。
クラウドLLMプロバイダーズ

クラウドLLMプロバイダーズ

LLMプロバイダーの短いリスト

LLMを使用することは非常に高価ではありません。新しい高性能なGPUを購入する必要がないかもしれません。LLMプロバイダーの一覧は、クラウド上のLLMプロバイダー で確認できます。それぞれが提供しているLLMについても記載されています。

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

インテルCPUにおけるOllamaの効率的なコアとパフォーマンスコアの比較

私はある仮説をテストしたいと思っています。すなわち、「インテルCPUのすべてのコアを活用することで、LLMの速度が向上するか?」というものです。このテストについては、ALL cores on Intel CPU would raise the speed of LLMs?をご覧ください。

新しいgemma3 27bitモデル(gemma3:27b、ollama上では17GB)が私のGPUの16GB VRAMに収まらず、部分的にCPU上での実行に頼っているという点が気になります。

Ollamaが並列リクエストを処理する方法

Ollamaが並列リクエストを処理する方法

オラマを並列リクエストの実行に設定する。

Ollama サーバーが同時に2つのリクエストを受け取った場合、その動作は設定と利用可能なシステムリソースに依存します。

バイブ コーディング - 意味と説明

バイブ コーディング - 意味と説明

このトレンドのAI支援型コーディングとは何か?

Vibe coding は、開発者が自然言語で望む機能を説明し、AIツールが自動的にコードを生成するという、AI駆動型のプログラミングアプローチです。

Ollama上でDeepseek-R1をテストする

Ollama上でDeepseek-R1をテストする

2つのdeepseek-r1モデルを2つのベースモデルと比較する

DeepSeekの 1世代目の推論モデルで、OpenAI-o1と同等の性能を備えています。 これは、LlamaおよびQwenに基づいてDeepSeek-R1から蒸留された6つの密結合モデルです。

Ollamaを使用したPerplexicaのセルフホスティング

Ollamaを使用したPerplexicaのセルフホスティング

ローカルでCopilotスタイルのサービスを実行する?簡単!

とてもエキサイティングですね!
CopilotやPerplexity.aiに頼って、世界中に自分の目的を明かす代わりに、今や自らのPCや高性能なノートPC上で同様のサービスをホストできるようになりました!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

論理的誤謬の検出のテスト

最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
論理的誤謬の検出能力を確認するためにテストしてみましょう。

LLMフロントエンド

LLMフロントエンド

選択肢は多くないが、それでも……。

LLM(大規模言語モデル)のUI(ユーザーインターフェース)に初めて触れた時、それらは積極的に開発中で、今ではいくつかは本当に優れたものとなっています。