LLM

ओलामा कैसे समानांतर अनुरोधों का संभालता है

ओलामा कैसे समानांतर अनुरोधों का संभालता है

ओलामा को समानांतर अनुरोधों के निष्पादन के लिए स्थापित करें।

जब Ollama सर्वर एक ही समय में दो अनुरोध प्राप्त करता है, तो इसका व्यवहार इसके विन्यास और उपलब्ध प्रणाली संसाधनों पर निर्भर करता है।

वाइब कोडिंग - अर्थ और विवरण

वाइब कोडिंग - अर्थ और विवरण

यह ट्रेंडी AI-सहायता प्राप्त कोडिंग क्या है?

वाइब कोडिंग एक आईई चालित कोडिंग प्रक्रिया है जहां डेवलपर्स अपनी आवश्यकता के बारे में प्राकृतिक भाषा में वर्णन करते हैं, जिससे आईई उपकरण ऑटोमैटिक रूप से कोड उत्पन्न करते हैं।

ओल्लामा पर डीपसीक-आर1 का परीक्षण

ओल्लामा पर डीपसीक-आर1 का परीक्षण

दो गहन-खोज र1 मॉडल्स को दो बेस मॉडल्स से तुलना करना

DeepSeek के पहले पीढ़ी के रीज़निंग मॉडल्स का परिचय, जो OpenAI-o1 के समान प्रदर्शन करते हैं, जिसमें छह घने मॉडल्स शामिल हैं जो DeepSeek-R1 पर आधारित हैं, जो Llama और Qwen से डिस्टिल किए गए हैं।

ओल्लामा चिटशीट - सबसे उपयोगी कमांड्स

ओल्लामा चिटशीट - सबसे उपयोगी कमांड्स

कुछ समय पहले इस Ollama कमांड लिस्ट को कॉम्पाइल किया...

यह ओल्लामा कमांड्स की सूची और उदाहरण है (Ollama commands cheatsheet) जिसे मैंने कुछ समय पहले तैयार किया था। आशा है कि यह आपके लिए भी उपयोगी होगा

मिस्ट्रल स्मॉल, जेम्मा 2, क्वेन 2.5, मिस्ट्रल नेमो, एलएलएम3 और फ़ी - एलईएम परीक्षण

मिस्ट्रल स्मॉल, जेम्मा 2, क्वेन 2.5, मिस्ट्रल नेमो, एलएलएम3 और फ़ी - एलईएम परीक्षण

एलएलएम परीक्षणों का अगला चरण

कुछ समय पहले जारी किया गया था। चलिए अपडेट करते हैं और
मिस्ट्रल स्मॉल के प्रदर्शन की तुलना करके टेस्ट करें

फ्लक्स टेक्स्ट से इमेज AI मॉडल

फ्लक्स टेक्स्ट से इमेज AI मॉडल

अद्भुत नई AI मॉडल पाठ से चित्र उत्पन्न करने के लिए

हाल ही में ब्लैक फॉरेस्ट लैब्स ने एक सेट
टेक्स्ट-टू-इमेज आर्टिफिशियल इंटेलिजेंस मॉडल का प्रकाशन किया है।
इन मॉडलों के उत्पादन गुणवत्ता बहुत अधिक है।
इन्हें आज़माएं

फारफैले वर्सस पर्प्लेक्सिका

फारफैले वर्सस पर्प्लेक्सिका

दो स्व-होस्ट किए गए AI खोज इंजन की तुलना

अद्भुत खाद्य पदार्थ आपके आंखों के लिए भी आनंद है।
लेकिन इस पोस्ट में हम दो AI आधारित खोज प्रणालियों, Farfalle और Perplexica की तुलना करेंगे।

स्वयं-आयोजित Perplexica - साथ ही Ollama के साथ

स्वयं-आयोजित Perplexica - साथ ही Ollama के साथ

क्या आपलोग लॉकल में Copilot-स्टाइल सर्विस चलाना चाहते हैं? बहुत आसान!

यह बहुत दिलचस्प है! ऐसे कोपाइलट (copilot) या पर्फ़्लेक्सिटी.एआई (perplexity.ai) जैसे सेवाओं को नामकरण देते हुए, और दुनिया को बताते हुए आप क्या चाहते हैं, आप अब इस प्रकार की सेवाओं को खुद के पीसी (PC) या लैपटॉप (laptop) पर आज़माई कर सकते हैं!

एलईएम फ्रंटएंड्स

एलईएम फ्रंटएंड्स

कुछ कम विकल्प हैं लेकिन फिर भी....

जब मैंने LLMs के साथ प्रयोग शुरू किया तो उनके UIs गतिशील विकास में थे और अब कुछ बहुत अच्छे हैं।

गेम्मा2 विरुद्ध क्वेन2 विरुद्ध मिस्ट्रल नेमो विरुद्ध...

गेम्मा2 विरुद्ध क्वेन2 विरुद्ध मिस्ट्रल नेमो विरुद्ध...

तार्किक भ्रम पता करना पर परीक्षण

हाल ही में हमने कई नए LLMs के रिलीज को देखा है।
उत्साहजनक समय है।
चलिए टेस्ट करें और देखें कि वे तार्किक गलतियों के पता लगाने में कैसे प्रदर्शन करते हैं।

एलईएम के लिए प्रभावी प्रॉम्प्ट लिखना

एलईएम के लिए प्रभावी प्रॉम्प्ट लिखना

कुछ प्रयोग की आवश्यकता है लेकिन

अभी भी कुछ सामान्य दृष्टिकोण हैं जिनके द्वारा अच्छे प्रॉम्प्ट लिखे जा सकते हैं ताकि LLM को आपके द्वारा चाहे वाले कार्य को समझने में भ्रमित न हो।

अल्लामा मॉडल्स को अलग स्थान पर ले जाएं

अल्लामा मॉडल्स को अलग स्थान पर ले जाएं

ओलामा एलईएम मॉडल फ़ाइलें काफ़ी स्पेस लेती हैं

इंस्टॉल करने के बाद ओलामा को तुरंत नए स्थान पर संगठित करना बेहतर होगा, ताकि नए मॉडल खींचे जाने के बाद वे पुराने स्थान पर डाउनलोड न हों।

बड़े भाषा मॉडलों की गति परीक्षण

बड़े भाषा मॉडलों की गति परीक्षण

चलो एलईएम के ग्राफिक्स प्रोसेसर और सीपीयू पर गति का परीक्षण करते हैं।

कई LLMs के विभिन्न संस्करणों (llama3 (मेटा/फेसबुक), phi3 (माइक्रोसॉफ्ट), gemma (गूगल), mistral (ओपन स्रोत)) के पूर्वानुमान गति की तुलना: CPU और GPU पर।