LLM

Hoe Ollama Parallel Verzoeken Behandelt

Hoe Ollama Parallel Verzoeken Behandelt

Ollama configureren voor het uitvoeren van parallelle aanvragen.

Wanneer de Ollama-server twee aanvragen tegelijkertijd ontvangt, hangt het gedrag ervan af van de configuratie en de beschikbare systeemresources.

Vibe Coding - Betekenis en Omschrijving

Vibe Coding - Betekenis en Omschrijving

Wat is deze trendy AI-ondersteunde programmeertaal?

Vibe coding is een AI-gestuurde programmeerbenadering waarbij ontwikkelaars gewenste functionaliteit beschrijven in natuurlijke taal, waardoor AI-tools automatisch code kunnen genereren.

Testen van Deepseek-R1 op Ollama

Testen van Deepseek-R1 op Ollama

Vergelijking van twee deepseek-r1-modellen met twee basismodellen

DeepSeek’s eerste generatie redeneingsmodellen met vergelijkbare prestaties als OpenAI-o1, waaronder zes dichte modellen gedistilleerd van DeepSeek-R1 gebaseerd op Llama en Qwen.

Zelf-hosten van Perplexica - met Ollama

Zelf-hosten van Perplexica - met Ollama

Een copilot-stijl service lokaal uitvoeren? Eenvoudig!

Dat is erg opwindend!
In plaats van copilot of perplexity.ai aan te roepen en aan de hele wereld te vertellen wat je zoekt,
kan je nu een soortgelijk dienst op je eigen PC of laptop hosten!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testen van het detecteren van logische fouten

Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.

LLM-frontends

LLM-frontends

Niet zo veel om uit te kiezen, maar toch...

Toen ik begon met het experimenteren met LLMs waren de UIs voor hen actief in ontwikkeling en nu zijn sommige van hen echt goed.

Het schrijven van effectieve prompts voor LLMs

Het schrijven van effectieve prompts voor LLMs

Een beetje experimenteren vereist maar

Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.

Snelheidstest voor grote taalmodellen

Snelheidstest voor grote taalmodellen

Laat ons de snelheid van de LLMs testen op GPU versus CPU

Vergelijking van de voorspellingsnelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.