Vergelijking AI-code-assistenten
Cursor AI versus GitHub Copilot versus Cline AI versus...
Hier vindt u een overzicht van enkele AI-gestuurde programmeringstools en hun vooruitvoordelen:
Cursor AI versus GitHub Copilot versus Cline AI versus...
Hier vindt u een overzicht van enkele AI-gestuurde programmeringstools en hun vooruitvoordelen:
Korte lijst van LLM-anbieders
Het gebruik van LLMs is niet erg duur, er is mogelijk geen behoefte om een nieuw geweldige GPU aan te schaffen.
Hier is een lijst met LLM providers in de cloud met LLMs die ze hosten.
Ollama op Intel CPU: Efficiëntie versus prestatiescores
Ik heb een theorie om te testen - als we alle kernen op een Intel CPU gebruiken, zou dat de snelheid van LLMs verhogen? Het irriteert me dat de nieuwe gemma3 27 bit model (gemma3:27b, 17 GB op ollama) niet in de 16 GB VRAM van mijn GPU past en gedeeltelijk op de CPU draait.
AI vereist veel kracht...
In het midden van de moderne wereld’s onrust ben ik tech specs van verschillende kaarten vergelijken die geschikt zijn voor AI taken (Deep Learning, Object Detection en LLMs). Ze zijn allemaal ongelooflijk duur.
Ollama configureren voor het uitvoeren van parallelle aanvragen.
Wanneer de Ollama-server twee aanvragen tegelijkertijd ontvangt, hangt het gedrag ervan af van de configuratie en de beschikbare systeemresources.
Wat is deze trendy AI-ondersteunde programmeertaal?
Vibe coding is een AI-gestuurde programmeerbenadering waarbij ontwikkelaars gewenste functionaliteit beschrijven in natuurlijke taal, waardoor AI-tools automatisch code kunnen genereren.
Het volledige pakket MM*-tools is met EOL...
Ik heb MMDetection (mmengine, mdet, mmcv) vrij veel gebruikt,
en nu lijkt het erop dat het niet meer in gebruik is.
Dat is jammer. Ik vond de modelzoo leuk.
Vergelijking van twee deepseek-r1-modellen met twee basismodellen
DeepSeek’s eerste generatie redeneingsmodellen met vergelijkbare prestaties als OpenAI-o1, waaronder zes dichte modellen gedistilleerd van DeepSeek-R1 gebaseerd op Llama en Qwen.
Bijgewerkte lijst met Ollama-opdrachten - ls, ps, run, serve, enz.
Deze Ollama CLI cheat sheet richt zich op de opdrachten die je elke dag gebruikt (ollama ls, ollama serve, ollama run, ollama ps, modelbeheer en veelvoorkomende workflows), met voorbeelden die je kunt kopiëren/pasten.
Volgende ronde LLM-tests
Niet zo lang geleden is vrijgegeven. Laten we even op de hoogte komen en test hoe Mistral Small presteert vergeleken met andere LLMs.
Een Python-code voor het herordenen van RAG
Innovatief nieuw AI-model om afbeeldingen te genereren op basis van tekst
Recentie Black Forest Labs heeft een set van tekst-naar-afbeelding AI-modellen gepubliceerd. Deze modellen worden gezegd te hebben veel hogere uitvoerkwaliteit. Laten we ze uitproberen
Een vergelijking van twee zelfgehoste AI zoekmachines
Prachtige voedsel is ook een genot voor de ogen. Maar in dit bericht vergelijken we twee AI-gebaseerde zoeksystemen, Farfalle en Perplexica.
Een copilot-stijl service lokaal uitvoeren? Eenvoudig!
Dat is erg opwindend!
In plaats van copilot of perplexity.ai aan te roepen en aan de hele wereld te vertellen wat je zoekt,
kan je nu een soortgelijk dienst op je eigen PC of laptop hosten!
Testen van het detecteren van logische fouten
Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.
Niet zo veel om uit te kiezen, maar toch...
Toen ik begon met het experimenteren met LLMs waren de UIs voor hen actief in ontwikkeling en nu zijn sommige van hen echt goed.