LLM-frontender
Inte så många att välja mellan men ändå...
När jag började experimentera med LLMs var gränssnitten för dem i aktiv utveckling och nu är några av dem verkligen bra.
Inte så många att välja mellan men ändå...
När jag började experimentera med LLMs var gränssnitten för dem i aktiv utveckling och nu är några av dem verkligen bra.
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.
Vanligt förekommande bitar av Python-kod
När man ibland behöver detta men inte kan hitta det direkt. Så jag håller dem alla här.
Etikettering och träning kräver lite limning
När jag tränade objektdetektions-AI för några månader sedan - var LabelImg ett mycket användbart verktyg, men exporten från Label Studio till COCO-format accepterades inte av MMDetection-ramverket..
8 versioner av llama3 (Meta+) och 5 versioner av phi3 (Microsoft) LLM
Testar hur modeller med olika antal parametrar och kvantisering beter sig.
Filer för Ollama LLM-modeller tar mycket plats
Efter installation av ollama är det bättre att konfigurera om ollama för att lagra dem på nytt plats direkt. Så när vi hämtar en ny modell, laddas den inte ner till den gamla platsen.
Låt oss testa hastigheten på LLMs på GPU jämfört med CPU
Jämför prediktionshastighet för flera versioner av LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) på CPU och GPU.
Låt oss testa kvaliteten på logiska felslutdetektering hos olika LLMs
Här jämför jag flera LLM-versioner: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) och Qwen (Alibaba).
För en tid sedan tränade jag en AI för objektdetektering
På en kall vinterdag i juli… det är i Australien… kände jag ett brådskande behov att träna en AI-modell för att detektera oskyddade betongförstärkande stänger…