Jämförelse av LLM:s sammanfattningsförmåga
8 versioner av llama3 (Meta+) och 5 versioner av phi3 (Microsoft) LLM
Testar hur modeller med olika antal parametrar och kvantisering beter sig.
8 versioner av llama3 (Meta+) och 5 versioner av phi3 (Microsoft) LLM
Testar hur modeller med olika antal parametrar och kvantisering beter sig.
Filer för Ollama LLM-modeller tar mycket plats
Efter installation av ollama är det bättre att konfigurera om ollama för att lagra dem på nytt plats direkt. Så när vi hämtar en ny modell, laddas den inte ner till den gamla platsen.
Låt oss testa hastigheten på LLMs på GPU jämfört med CPU
Jämför prediktionshastighet för flera versioner av LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) på CPU och GPU.
Låt oss testa kvaliteten på logiska felslutdetektering hos olika LLMs
Här jämför jag flera LLM-versioner: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) och Qwen (Alibaba).
För en tid sedan tränade jag en AI för objektdetektering
På en kall vinterdag i juli… det är i Australien… kände jag ett brådskande behov att träna en AI-modell för att detektera oskyddade betongförstärkande stänger…