Ollama

Hur Ollama hanterar parallella begäranden

Hur Ollama hanterar parallella begäranden

Konfigurera ollama för parallell exekvering av begäranden.

När Ollama-servern får två begäranden samtidigt, beror dess beteende på dess konfiguration och tillgängliga systemresurser.

Testa Deepseek-R1 på Ollama

Testa Deepseek-R1 på Ollama

Jämföra två deepseek-r1-modeller med två basmodeller

DeepSeek’s första generation av resonemodeller med jämförbar prestanda med OpenAI-o1, inklusive sex tätmodeller distillerade från DeepSeek-R1 baserade på Llama och Qwen.

Självhyst Perplexica – med Ollama

Självhyst Perplexica – med Ollama

Kör en Copilot-tjänst lokalt? Det är enkelt!

Det är väldigt spännande! Istället för att ringa Copilot eller perplexity.ai och berätta för hela världen vad du letar efter, kan du nu värdshålla en liknande tjänst på din egen PC eller bärbara dator!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testa upptäckt av logiska fall

Nyligen har vi sett flera nya LLM:er släppas. Spännande tider. Låt oss testa och se hur de presterar när de upptäcker logiska fall.

Att skriva effektiva promptar för LLMs

Att skriva effektiva promptar för LLMs

Kräver lite experimenterande men

Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.