AI

Zelfhosting van Perplexica - met Ollama

Zelfhosting van Perplexica - met Ollama

Lokale uitvoering van een Copilot-stijl service? Gemakkelijk!

Dat is erg spannend! In plaats van Copilot of perplexity.ai aan te roepen en de hele wereld te vertellen wat je zoekt, kun je nu een vergelijkbare dienst op je eigen PC of laptop hosten!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testen van het detecteren van logische fouten

Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.

Het schrijven van effectieve prompts voor LLMs

Het schrijven van effectieve prompts voor LLMs

Een beetje experimenteren vereist maar

Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.

Snelheidstest voor grote taalmodellen

Snelheidstest voor grote taalmodellen

Laat ons de snelheid van de LLMs testen op GPU versus CPU

Vergelijking van de voorspellingsnelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.

Detectie van logische fouten met LLMs

Detectie van logische fouten met LLMs

Laat ons de kwaliteit van het detecteren van logische fouten van verschillende LLMs testen

Hier vergelijk ik verschillende LLM-versies: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) en Qwen (Alibaba).