Hur Ollama Hanterar Parallella Förfrågningar
Konfigurera Ollama för parallella begäranden.
När Ollama-servern tar emot två förfrågningar samtidigt, beror dess beteende på dess konfiguration och tillgängliga systemresurser.
Konfigurera Ollama för parallella begäranden.
När Ollama-servern tar emot två förfrågningar samtidigt, beror dess beteende på dess konfiguration och tillgängliga systemresurser.
Vad är denna trendiga AI-assisterade kodning?
Vibe kodning är en AI-driven programmeringsmetod där utvecklare beskriver önskad funktionalitet på naturligt språk, vilket tillåter AI-verktyg att generera kod automatiskt.
Jämför två deepseek-r1-modeller med två basmodeller
DeepSeek’s första generation av resonemangsmodeller med jämförbar prestanda med OpenAI-o1, inklusive sex täta modeller destillerade från DeepSeek-R1 baserade på Llama och Qwen.
Sammanställde den här listan med Ollama-kommandon för någon tid sedan...
Här är listan och exempel på de mest användbara Ollama-kommandona (Ollama kommandon översikt) som jag sammanställde för någon tid sedan. Hoppas det kommer att vara användbart för dig också.
Nästa omgång av LLM-tester
Nyligen släpptes Mistral Small. Låt oss ta reda på och testa hur Mistral Small presterar jämfört med andra LLMs.
En Python-kod för RAG:s omrankning
Nyckelfull ny AI-modell för att skapa bilder från text
Nyligen publicerade Black Forest Labs en uppsättning text-till-bild AI-modeller. Dessa modeller sägs ha mycket högre utdata kvalitet. Låt oss prova dem
Jämförelse av två självhämtade AI-sökmotorer
Läcker mat är också en njutning för ögonen. Men i den här posten kommer vi att jämföra två AI-baserade söksystem, Farfalle och Perplexica.
Kör en copilot-stilad tjänst lokalt? Lätt!
Det är mycket spännande! Istället för att ringa copilot eller perplexity.ai och berätta för hela världen vad du letar efter, kan du nu värd för en liknande tjänst på din egen PC eller bärbara dator!
Testning av logiska felslut
Nyligen har vi sett flera nya LLMs som släppts. Spännande tider. Låt oss testa och se hur de presterar när de upptäcker logiska felaktigheter.
Inte så många att välja mellan men ändå...
När jag började experimentera med LLMs var gränssnitten för dem i aktiv utveckling och nu är några av dem verkligen bra.
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.
8 versioner av llama3 (Meta+) och 5 versioner av phi3 (Microsoft) LLM
Testar hur modeller med olika antal parametrar och kvantisering beter sig.
Filer för Ollama LLM-modeller tar mycket plats
Efter installation av ollama är det bättre att konfigurera om ollama för att lagra dem på nytt plats direkt. Så när vi hämtar en ny modell, laddas den inte ner till den gamla platsen.
Låt oss testa hastigheten på LLMs på GPU jämfört med CPU
Jämför prediktionshastighet för flera versioner av LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) på CPU och GPU.
Låt oss testa kvaliteten på logiska felslutdetektering hos olika LLMs
Här jämför jag flera LLM-versioner: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) och Qwen (Alibaba).