Het schrijven van effectieve prompts voor LLMs
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
Vaak gebruikte stukjes Python-code
Soms heb ik dit nodig, maar kan het niet direct vinden.
Dus houd ik ze allemaal hier.
Labelen en training vereist wat lijmwerk
Toen ik object detectie AI optraaide enige tijd geleden - was LabelImg een zeer nuttig hulpmiddel, maar de export van Label Studio naar COCO formaat werd niet geaccepteerd door de MMDetection framework…
8 llama3 (Meta+) en 5 phi3 (Microsoft) LLM-versies
Testen hoe modellen met een verschillend aantal parameters en kwantificatie zich gedragen.
Ollama LLM-modelbestanden nemen veel ruimte in beslag
Na het installeren van ollama is het beter om ollama direct te herconfigureren om ze op een nieuwe plek op te slaan. Zo wordt er na het ophalen van een nieuw model niet naar de oude locatie gedownload.
Laat ons de snelheid van de LLMs testen op GPU versus CPU
Vergelijking van de voorspellingsnelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.
Laat ons de kwaliteit van het detecteren van logische fouten van verschillende LLMs testen
Hier vergelijk ik verschillende LLM-versies: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) en Qwen (Alibaba).