LLM-Frontends
Nicht so viele zur Auswahl, aber dennoch...
Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.
Nicht so viele zur Auswahl, aber dennoch...
Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.
Erfordert etwas Experimentieren, aber
Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.
8 LLM-Versionen von llama3 (Meta+) und 5 LLM-Versionen von phi3 (Microsoft)
Testing, wie Modelle mit unterschiedlicher Anzahl an Parametern und Quantisierung sich verhalten.
Ollama-LLM-Modelldateien benötigen viel Speicherplatz.
Nachdem Sie Ollama installiert haben, ist es besser, Ollama direkt so zu konfigurieren, dass die Modelle an einem neuen Ort gespeichert werden. So werden neue Modelle nicht mehr in den alten Speicherort heruntergeladen.
Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU
Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.
Lassen Sie uns die Qualität der logischen Trugschlusserkennung verschiedener LLMs testen
Vergleich mehrerer Versionen von LLMs: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (Open Source) und qwen (Alibaba).