AI

ओलामा के लिए गो क्लाइंट्स: SDK तुलना और क्वेन3/जीपीटी-ओएसएस उदाहरण

ओलामा के लिए गो क्लाइंट्स: SDK तुलना और क्वेन3/जीपीटी-ओएसएस उदाहरण

ओलामा के साथ गो की इंटीग्रेशन: SDK गाइड, उदाहरण और उत्पादन बेस्ट प्रैक्टिस।

यह गाइड उपलब्ध Go SDKs for Ollama के विस्तृत समीक्षा प्रदान करता है और उनके विशेषताओं के सेट की तुलना करता है।

तुलना: क्वेन3:30बी vs जीपीटी-ओएसएस:20बी

तुलना: क्वेन3:30बी vs जीपीटी-ओएसएस:20बी

इन दो मॉडलों की गति, पैरामीटर्स और प्रदर्शन का तुलनात्मक अध्ययन

यहाँ Qwen3:30b और GPT-OSS:20b के बीच तुलना है, जो निर्देश पालन और प्रदर्शन पैरामीटर्स, स्पेसिफिकेशन्स और गति पर केंद्रित है:

ओलामा जीपीटी-ओएसएस संरचित आउटपुट समस्याएँ

ओलामा जीपीटी-ओएसएस संरचित आउटपुट समस्याएँ

बहुत अच्छा नहीं।

Ollama के GPT-OSS मॉडल्स में संरचित आउटपुट को हैंडल करने में बार-बार समस्याएं आती हैं, विशेष रूप से जब उन्हें LangChain, OpenAI SDK, vllm जैसे फ्रेमवर्क्स के साथ उपयोग किया जाता है, और अन्य।

लोकप्रिय एलएलएम प्रदाताओं - ओपनएआई, जेमिनी, एंथ्रोपिक, मिस्ट्रल और एडब्ल्यूएस बेड्रॉक के बीच संरचित आउटपुट तुलना

लोकप्रिय एलएलएम प्रदाताओं - ओपनएआई, जेमिनी, एंथ्रोपिक, मिस्ट्रल और एडब्ल्यूएस बेड्रॉक के बीच संरचित आउटपुट तुलना

अलग तरह के एपीआई के लिए विशेष दृष्टिकोण की आवश्यकता होती है।

यहाँ एक साइड-बाय-साइड सपोर्ट तुलना है संरचित आउटपुट (विश्वसनीय JSON प्राप्त करना) लोकप्रिय LLM प्रदाताओं के बीच, साथ ही न्यूनतम Python उदाहरण

संरचित आउटपुट के साथ एलएलएम को सीमित करना: ओल्लामा, क्वेन3 & पाइथन या गो

संरचित आउटपुट के साथ एलएलएम को सीमित करना: ओल्लामा, क्वेन3 & पाइथन या गो

Ollama से संरचित आउटपुट प्राप्त करने के कुछ तरीके

बड़े भाषा मॉडल (LLMs) शक्तिशाली हैं, लेकिन उत्पादन में हम आमतौर पर मुक्त-रूप पेराग्राफ नहीं चाहते। बजाय इसके, हम प्रत्याशित डेटा चाहते हैं: विशेषताएं, तथ्य, या संरचित वस्तुएं जिन्हें आप एक ऐप में फीड कर सकते हैं। यह है LLM संरचित आउटपुट

मेमोरी आवंटन मॉडल अनुसूचना नया संस्करण में - व0.12.1

मेमोरी आवंटन मॉडल अनुसूचना नया संस्करण में - व0.12.1

अपना खुद का परीक्षण ओलामा मॉडल शेड्यूलिंग

मैं नए ओल्लामा संस्करण में मॉडल के लिए आवंटित VRAM की तुलना (Ollama VRAM allocation) पुराने संस्करण के साथ कर रहा हूँ। नया संस्करण खराब है।

ओल्लामा एंशिटिफिकेशन - प्रारंभिक संकेत

ओल्लामा एंशिटिफिकेशन - प्रारंभिक संकेत

ओल्लामा विकास के वर्तमान स्थिति पर मेरा दृष्टिकोण

Ollama ने स्थानीय रूप से एलएलएम चलाने के लिए सबसे लोकप्रिय उपकरणों में से एक बनने में तेजी से प्रगति की है। इसके सरल सीएलआई और सुलभ मॉडल प्रबंधन ने इसे क्लाउड के बाहर एआई मॉडल्स के साथ काम करने वाले डेवलपर्स के लिए एक प्राथमिक विकल्प बना दिया है। लेकिन कई वादा करने वाले प्लेटफॉर्म की तरह, Enshittification के संकेत पहले से ही दिखाई देने लगे हैं:

स्थानीय ओल्लामा इंस्टेंस के लिए चैट यूआई

स्थानीय ओल्लामा इंस्टेंस के लिए चैट यूआई

2025 में ओल्लामा के लिए सबसे प्रमुख यूआई का त्वरित अवलोकन

स्थानीय रूप से होस्टेड Ollama आपको अपने मशीन पर बड़े भाषा मॉडल चलाने की अनुमति देता है, लेकिन कमांड-लाइन के माध्यम से इसका उपयोग करना उपयोगकर्ता-मित्र नहीं है। यहाँ कुछ ओपन-सोर्स प्रोजेक्ट्स हैं जो ChatGPT-स्टाइल इंटरफेस प्रदान करते हैं जो स्थानीय Ollama से कनेक्ट होते हैं।

GitHub Copilot चीटशीट - विवरण और उपयोगी कमांड्स

GitHub Copilot चीटशीट - विवरण और उपयोगी कमांड्स

विवरण, योजनाएँ, कमांड सूची और कीबोर्ड शॉर्टकट्स

यहाँ एक अपडेटेड GitHub Copilot चीयट शीट है, जिसमें Visual Studio Code और Copilot Chat के लिए आवश्यक शॉर्टकट, कमांड, उपयोग टिप्स, और कॉन्टेक्स्ट फीचर्स शामिल हैं

प्रोग्रामिंग भाषाओं और सॉफ्टवेयर डेवलपर टूल्स की लोकप्रियता

प्रोग्रामिंग भाषाओं और सॉफ्टवेयर डेवलपर टूल्स की लोकप्रियता

सॉफ्टवेयर इंजीनियरिंग उपकरणों और भाषाओं की तुलना

द प्रैग्मैटिक इंजीनियर लेटर ने कुछ दिन पहले एक सर्वेक्षण प्रकाशित किया जिसमें 2025 के मध्य के लिए प्रोग्रामिंग भाषाओं, IDEs, AI टूल्स और अन्य डेटा की लोकप्रियता के आंकड़े शामिल हैं।

एनवीडिया डीजीएक्स स्पार्क - नया छोटा एआई सुपरकंप्यूटर

एनवीडिया डीजीएक्स स्पार्क - नया छोटा एआई सुपरकंप्यूटर

जुलाई 2025 में, जल्द ही यह उपलब्ध हो जाना चाहिए

एनवीडिया DGX स्पार्क जारी करने वाला है NVIDIA DGX स्पार्क - ब्लैकवेल आर्किटेक्चर पर छोटा AI सुपरकंप्यूटर जिसमें 128+GB यूनिफाइड RAM और 1 PFLOPS AI प्रदर्शन है। LLM चलाने के लिए एक अच्छा डिवाइस है।

मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP), और MCP सर्वर को Go में लागू करने के नोट्स

मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP), और MCP सर्वर को Go में लागू करने के नोट्स

MCP विशेषताओं और GO में कार्यान्वयन पर लंबा लेख

यहाँ मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) का वर्णन है, जिसमें Go में एक MCP सर्वर का कार्यान्वयन के बारे में संक्षिप्त नोट्स शामिल हैं, जिसमें संदेश संरचना और प्रोटोकॉल विनिर्देश शामिल हैं।

ओलामा और क्वेन3 रीरैंकर मॉडल के साथ दस्तावेजों को फिर से रैंक करें - गो में

ओलामा और क्वेन3 रीरैंकर मॉडल के साथ दस्तावेजों को फिर से रैंक करें - गो में

RAG को लागू कर रहे हैं? यहाँ कुछ Go कोड टुकड़े हैं - 2...

चूंकि मानक Ollama में सीधा रीरैंक एपीआई नहीं है,
आपको Qwen3 Reranker के साथ रीरैंकिंग करें GO में जेनरेट करके प्रश्न-दस्तावेज़ जोड़े के एम्बेडिंग्स और उनके स्कोरिंग करना होगा।

टेंसरफ्लो के साथ ऑब्जेक्ट डिटेक्शन

टेंसरफ्लो के साथ ऑब्जेक्ट डिटेक्शन

कुछ समय पहले मैंने ऑब्जेक्ट डिटेक्टर AI को ट्रेन किया था

एक ठंडे जुलाई के दिन… जो कि ऑस्ट्रेलिया में होता है… मुझे एक एआई मॉडल ट्रेन करने की तत्काल आवश्यकता महसूस हुई जो अनकैप्ड कंक्रीट रीइनफोर्समेंट बार्स को पहचान सके…

हुगो पेज अनुवाद की गुणवत्ता की तुलना - ओलामा पर एलईएमसँ

हुगो पेज अनुवाद की गुणवत्ता की तुलना - ओलामा पर एलईएमसँ

qwen3 8b, 14b और 30b, devstral 24b, mistral small 24b

इस परीक्षण में मैं अलग-अलग LLMs के ओलामा पर होस्ट करने के बारे में जांच कर रहा हूं अंग्रेजी से जर्मन में अनुवाद करते हैं।
मैंने जो तीन पेजों की परीक्षा की वे अलग-अलग विषयों पर थे, कुछ अच्छे मार्कडाउन के साथ थे, जिसमें कुछ संरचना थी: मुख्य शीर्षक, सूची, तालिका, लिंक आदि।