
Comparaison des capacités de résumé des modèles LLM
8 versions de llama3 (Meta+) et 5 versions de phi3 (Microsoft) de modèles LLM
Testing comment sur les modèles avec un nombre différent de paramètres et la quantification.
8 versions de llama3 (Meta+) et 5 versions de phi3 (Microsoft) de modèles LLM
Testing comment sur les modèles avec un nombre différent de paramètres et la quantification.
Les fichiers de modèles LLM d'Ollama prennent beaucoup de place.
Après avoir installé ollama, il est préférable de reconfigurer ollama pour qu’il les stocke directement dans le nouveau lieu. Ainsi, après avoir tiré un nouveau modèle, il ne sera pas téléchargé vers l’ancien emplacement.
Testons la vitesse des LLM sur GPU par rapport au CPU
Comparaison de la vitesse de prédiction de plusieurs versions de LLM (modèles de langage grand public) : llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) sur CPU et GPU.
Testons la qualité de détection des fautes logiques de différents LLMs
Ici, je compare plusieurs versions de LLM : Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) et Qwen (Alibaba).