
Gemma2 と Qwen2 と Mistral Nemo と...
論理的誤謬の検出をテストする
最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
それらが論理的誤謬を検出する際のパフォーマンスをテストし、確認してみましょう。
論理的誤謬の検出をテストする
最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
それらが論理的誤謬を検出する際のパフォーマンスをテストし、確認してみましょう。
選択肢は多くないが、それでも……。
LLM(大規模言語モデル)のUI(ユーザーインターフェース)に初めて触れた時、それらは積極的に開発中で、今ではいくつかは本当に優れたものとなっています。
いくつかの試行錯誤が必要ですが、
まだ、LLMがあなたの意図を理解しようとする際に混乱しないようにするための、良いプロンプトを書くためのいくつかの一般的なアプローチがあります。
よく使用されるPythonコードの断片
時折必要になるが、すぐに見つからないことがある。
そのため、ここにすべてを保存しておく。
ラベリングとトレーニングには、ある程度の接着が必要です。
以前に オブジェクト検出AIのトレーニング を行った際、LabelImgは非常に役立つツールでしたが、 Label StudioからCOCOフォーマットへのエクスポートは MMDetectionフレームワークで受け入れられていませんでした。
8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン
パラメータ数や量子化の異なるモデルの挙動をテストしています。
OllamaのLLMモデルファイルは多くのストレージスペースを占有します。
ollamaをインストールした後、モデルを新しい場所に即座に再構成するのがより良いです。
これにより、新しいモデルをプルした後、古い場所にダウンロードされません。
LLMのGPUとCPUでの速度をテストしてみましょう
いくつかのLLM(llama3、phi3、gemma、mistral)のCPUおよびGPUでの予測速度の比較。
さまざまなLLMの論理的誤謬検出の質をテストしましょう
ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。