Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 en Phi - LLM Test
Volgende ronde LLM-tests
Niet zo lang geleden is vrijgegeven. Laten we even op de hoogte komen en test hoe Mistral Small presteert vergeleken met andere LLMs.
Volgende ronde LLM-tests
Niet zo lang geleden is vrijgegeven. Laten we even op de hoogte komen en test hoe Mistral Small presteert vergeleken met andere LLMs.
Een Python-code voor het herschikken van RAG.
Innovatief nieuw AI-model om afbeeldingen te genereren op basis van tekst
Recentie Black Forest Labs heeft een set van tekst-naar-afbeelding AI-modellen gepubliceerd. Deze modellen worden gezegd te hebben veel hogere uitvoerkwaliteit. Laten we ze uitproberen
Twee zelfgehoste AI-zoekmachines vergeleken
Geweldige eten is ook een plezier voor de ogen. Maar in dit bericht vergelijken we twee op AI gebaseerde zoeksystemen: Farfalle en Perplexica.
Lokale uitvoering van een Copilot-stijl service? Gemakkelijk!
Dat is erg spannend! In plaats van Copilot of perplexity.ai aan te roepen en de hele wereld te vertellen wat je zoekt, kun je nu een vergelijkbare dienst op je eigen PC of laptop hosten!
Testen van het detecteren van logische fouten
Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
Vaak gebruikte stukjes Python-code
Soms heb ik dit nodig, maar kan het niet direct vinden.
Dus houd ik ze allemaal hier.
Labelen en training vereist wat lijmwerk
Toen ik object detectie AI optraaide enige tijd geleden - was LabelImg een zeer nuttig hulpmiddel, maar de export van Label Studio naar COCO formaat werd niet geaccepteerd door de MMDetection framework…
8 llama3 (Meta+) en 5 phi3 (Microsoft) LLM-versies
Testen hoe modellen met een verschillend aantal parameters en kwantificatie zich gedragen.
Ollama LLM-modelbestanden nemen veel ruimte in beslag.
Na het installeren van Ollama is het beter om Ollama direct opnieuw te configureren om de modellen op een nieuwe locatie op te slaan. Zodat wanneer we een nieuw model ophalen, deze niet naar de oude locatie wordt gedownload.
Laat ons de snelheid van de LLMs testen op GPU versus CPU
Vergelijking van de voorspellingsnelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.
Laat ons de kwaliteit van het detecteren van logische fouten van verschillende LLMs testen
Hier vergelijk ik verschillende LLM-versies: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) en Qwen (Alibaba).