LLM

LLM-frontender

LLM-frontender

Inte så många att välja mellan men ändå...

När jag började experimentera med LLMs var gränssnitten för dem i aktiv utveckling och nu är några av dem verkligen bra.

Att skriva effektiva promptar för LLMs

Att skriva effektiva promptar för LLMs

Kräver lite experimenterande men

Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.

Hastighetstest för stora språkliga modeller

Hastighetstest för stora språkliga modeller

Låt oss testa hastigheten på LLMs på GPU jämfört med CPU

Jämför prediktionshastighet för flera versioner av LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) på CPU och GPU.

Detektion av logiska felslutningar med LLMs

Detektion av logiska felslutningar med LLMs

Låt oss testa kvaliteten på logiska felslutdetektering hos olika LLMs

Här jämför jag flera LLM-versioner: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) och Qwen (Alibaba).