Self-Hosting

ارتفاع أسعار الذاكرة العشوائية (RAM): حتى 619% في عام 2025

ارتفاع أسعار الذاكرة العشوائية (RAM): حتى 619% في عام 2025

تزيد أسعار الذاكرة العشوائية (RAM) بنسبة 163 إلى 619% مع تزايد الطلب الناتج عن الذكاء الاصطناعي وتراجع المعروض

تواجه سوق الذاكرة تقلبات في الأسعار غير مسبوقة في أواخر عام 2025، مع ارتفاع أسعار الذاكرة العشوائية بشكل كبير في جميع الفئات.

استضافة نماذج LLM المحلية: دليل شامل لعام 2025 - Ollama، vLLM، LocalAI، Jan، LM Studio وغيرها

استضافة نماذج LLM المحلية: دليل شامل لعام 2025 - Ollama، vLLM، LocalAI، Jan، LM Studio وغيرها

استخدم 12+ أداة لمقارنة نشر نماذج LLM المحلية بشكل محترف

النشر المحلي للنماذج الكبيرة أصبح أكثر شيوعًا مع تطلع المطورين والمنظمات إلى خصوصية محسنة وتقليل التأخير وزيادة السيطرة على بنية تحتية الذكاء الاصطناعي الخاصة بهم.

أسعار Nvidia RTX 5080 و RTX 5090 في أستراليا - نوفمبر 2025

أسعار Nvidia RTX 5080 و RTX 5090 في أستراليا - نوفمبر 2025

أسعار وحدات معالجة الرسومات المخصصة للذكاء الاصطناعي - RTX 5080 و RTX 5090

لنقارن الأسعار بين أفضل بطاقات الجرافيكس من نوع GPU للمستهلكين، والتي مناسبة بشكل خاص للنماذج العصبية الكبيرة (LLMs) بشكل عام للذكاء الاصطناعي. بالتحديد أنا أبحث عن أسعار RTX-5080 و RTX-5090.

بنية تحتية للذكاء الاصطناعي على الأجهزة المية

بنية تحتية للذكاء الاصطناعي على الأجهزة المية

قم بتشغيل الذكاء الاصطناعي المؤسسي على معدات ميسرة بأسعار معقولة باستخدام نماذج مفتوحة المصدر

الديموقراطية في الذكاء الاصطناعي هنا. مع نماذج LLM المفتوحة المصدر مثل Llama 3، وMixtral، وQwen الآن تنافس النماذج الخاصة، يمكن للمجموعات بناء بنية تحتية قوية للذكاء الاصطناعي باستخدام معدات الاستهلاك - مما يقلل التكاليف مع الحفاظ على التحكم الكامل في خصوصية البيانات والنشر.

تشغيل FLUX.1-dev GGUF Q8 في Python

تشغيل FLUX.1-dev GGUF Q8 في Python

تسريع FLUX.1-dev باستخدام كمّ量化 GGUF

FLUX.1-dev هو نموذج قوي لتحويل النص إلى صورة ينتج نتائج مذهلة، ولكن متطلباته من الذاكرة البالغة 24 جيجابايت أو أكثر تجعله تحديًا لتشغيله على العديد من الأنظمة. تكميم GGUF لـ FLUX.1-dev يقدم حلًا، حيث يقلل من استخدام الذاكرة بنسبة تصل إلى 50% مع الحفاظ على جودة الصورة الممتازة.

Strapi مقابل Directus مقابل Payload: مقارنة بين أنظمة إدارة المحتوى بدون رؤوس

Strapi مقابل Directus مقابل Payload: مقارنة بين أنظمة إدارة المحتوى بدون رؤوس

قارن CMS بدون رأس - الميزات، الأداء وحالات الاستخدام

اختيار CMS بدون رؤوس المناسب يمكن أن يحدد مصير استراتيجية إدارة المحتوى الخاصة بك. لنقم بمقارنة ثلاث حلول مفتوحة المصدر تؤثر على طريقة مطوري البرمجيات في بناء تطبيقات موجهة للمحتوى.

استضافة Immich بشكل مستقل: سحابة صور خاصة

استضافة Immich بشكل مستقل: سحابة صور خاصة

صورك في نسخ احتياطية مدعومة بذكاء اصطناعي مضيف ذاتي

Immich هو حل مبتكر ومفتوح المصدر لتنظيم وتخزين الصور والفيديوهات بشكل مستضاف ذاتيًا، مما يمنحك السيطرة الكاملة على ذكرياتك. مع ميزات تتنافس مع Google Photos، بما في ذلك التعرف على الوجوه الذكاء الاصطناعي، والبحث الذكي، والنسخ الاحتياطي التلقائي من الهاتف المحمول، مع الحفاظ على خصوصيتك وسلامة بياناتك على خادمك الخاص.

دليل Elasticsearch: الأوامر الأساسية والنصائح

دليل Elasticsearch: الأوامر الأساسية والنصائح

أوامر Elasticsearch للبحث، والفرز، والتحليلات

Elasticsearch هو محرك بحث وتحليل قوي تم بناؤه على Apache Lucene. تحتوي هذه المجموعة الشاملة من الأوامر على الأوامر الأساسية، وال أفضل الممارسات، والمرجع السريع لاستخدام مجموعات Elasticsearch.

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

نتائج اختبار GPT-OSS 120b على ثلاث منصات ذكاء اصطناعي

قمت بتحليل بعض الاختبارات المثيرة للاهتمام حول أداء نموذج GPT-OSS 120b أثناء تشغيله على Ollama عبر ثلاث منصات مختلفة: NVIDIA DGX Spark، وMac Studio، وRTX 4080. يبلغ حجم نموذج GPT-OSS 120b من مكتبة Ollama 65 جيجابايت، مما يعني أنه لا يمكن أن يناسب الـ 16 جيجابايت من ذاكرة الفيديو (VRAM) الخاصة بـ RTX 4080 (أو النسخة الأحدث RTX 5080).