LLM

LLM-Frontends

LLM-Frontends

Nicht so viele zur Auswahl, aber dennoch...

Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.

Die Erstellung effektiver Prompts für LLMs

Die Erstellung effektiver Prompts für LLMs

Erfordert etwas Experimentieren, aber

Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.

Großsprachmodell-Performance-Test

Großsprachmodell-Performance-Test

Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU

Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.

Logische Fehlschlusserkennung mit LLMs

Logische Fehlschlusserkennung mit LLMs

Lassen Sie uns die Qualität der logischen Trugschlusserkennung verschiedener LLMs testen

Vergleich mehrerer Versionen von LLMs: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (Open Source) und qwen (Alibaba).