
مقارنة قدرات النماذج الكبيرة على تلخيص النصوص
8 نسخة من llama3 (Meta+) و5 نسخ من phi3 (Microsoft) من نماذج LLM
اختبار كيف تؤثر النماذج ذات عدد مختلف من المعلمات والكم量化 على الأداء.
8 نسخة من llama3 (Meta+) و5 نسخ من phi3 (Microsoft) من نماذج LLM
اختبار كيف تؤثر النماذج ذات عدد مختلف من المعلمات والكم量化 على الأداء.
تستغرق ملفات نموذج Ollama LLM مساحة كبيرة جدًا.
بعد تثبيت ollama من الأفضل إعادة تكوين ollama لتخزينها في مكان جديد فورًا. إذن بعد أن نسحب نموذجًا جديدًا، لن يتم تنزيله إلى الموقع القديم.
لنختبر سرعة النماذج الكبيرة للغة على وحدة معالجة الرسومات (GPU) مقابل وحدة المعالجة المركزية (CPU)
مقارنة سرعة التنبؤ لعدة إصدارات من نماذج LLMs: llama3 (Meta/Facebook)، phi3 (Microsoft)، gemma (Google)، mistral (مصدر مفتوح) على وحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU).
لنختبر جودة اكتشاف الأخطاء المنطقية في نماذج LLM المختلفة
هنا أنا أقارن بين عدة إصدارات من نماذج LLM: Llama3 (Meta)، Phi3 (Microsoft)، Gemma (Google)، Mistral Nemo (Mistral AI) وQwen (Alibaba).