molntjänstleverantörer för LLM
Kort lista över LLM-leverantörer
Användning av LLM:er är inte särskilt kostsam, det kan inte behövas köpa nya fantastiska GPU:er. Här är en lista över LLM-leverantörer i molnet med LLM:er de värdar.
Kort lista över LLM-leverantörer
Användning av LLM:er är inte särskilt kostsam, det kan inte behövas köpa nya fantastiska GPU:er. Här är en lista över LLM-leverantörer i molnet med LLM:er de värdar.
Ollama på Intel CPU: Effektivitet vs prestandaenheter
Jag har en teori att testa – om man använder alla kärnor på Intel CPU skulle det öka hastigheten hos LLMs? Det är irriterande att den nya gemma3 27-bit model (gemma3:27b, 17GB på ollama) inte passar in i min GPU:s 16GB VRAM och delvis kör på CPU.
AI kräver mycket kraft...
I mitt håll i den moderna världens kaos här är jag jämförande tekniska specifikationer av olika kort som är lämpliga för AI uppgifter (Deep Learning, Objektidentifiering och LLM). De är alla otroligt dyra dock.
Konfigurera ollama för parallell exekvering av begäranden.
När Ollama-servern får två begäranden samtidigt, beror dess beteende på dess konfiguration och tillgängliga systemresurser.
Vad är denna trendiga AI-assisterade kodning?
Vibe kodning är en AI-driven programmeringsmetod där utvecklare beskriver önskad funktionalitet på naturligt språk, vilket tillåter AI-verktyg att generera kod automatiskt.
Hela uppsättningen av MM*-verktyg är på EOL...
Jag har använt MMDetection (mmengine, mdet, mmcv), och nu ser det ut som att det är ur spel. Det är synd. Jag gillade deras modellzoo.
Jämföra två deepseek-r1-modeller med två basmodeller
DeepSeek’s första generation av resonemodeller med jämförbar prestanda med OpenAI-o1, inklusive sex tätmodeller distillerade från DeepSeek-R1 baserade på Llama och Qwen.
Uppdaterad lista över Ollama-kommandon - ls, ps, run, serve, osv
Detta Ollama CLI cheat sheet fokuserar på kommandona du använder varje dag (ollama ls, ollama serve, ollama run, ollama ps, modellhantering och vanliga arbetsflöden), med exempel som du kan kopiera och klistra in.
Nästa omgång av LLM-testerna
Inte för länge sedan släpptes. Låt oss uppdatera och
testa hur Mistral Small presterar jämfört med andra LLMs.
En Python-kod för RAG:s omrankning
Nyckelfull ny AI-modell för att skapa bilder från text
Nyligen publicerade Black Forest Labs en uppsättning text-till-bild AI-modeller. Dessa modeller sägs ha mycket högre utdata kvalitet. Låt oss prova dem
Jämförelse av två självhämtade AI-sökmotorer
Läcker mat är också en njutning för ögonen. Men i den här posten kommer vi att jämföra två AI-baserade söksystem, Farfalle och Perplexica.
Kör en copilot-stil tjänst lokalt? Enkelt!
Det är mycket spännande! I stället för att anropa copilot eller perplexity.ai och berätta för hela världen vad du eftersträvar, kan du nu värd en liknande tjänst på din egen dator eller laptop!
Testa upptäckt av logiska fall
Nyligen har vi sett flera nya LLM:er släppas. Spännande tider. Låt oss testa och se hur de presterar när de upptäcker logiska fall.
Inte så många att välja mellan men ändå...
När jag började experimentera med LLMs var gränssnitten för dem i aktiv utveckling och nu är några av dem verkligen bra.
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.