AI

Rédiger des prompts efficaces pour les LLMs

Rédiger des prompts efficaces pour les LLMs

Exige quelques expérimentations mais

Il existe toutefois quelques approches courantes pour rédiger des prompts efficaces afin que le modèle de langage ne se confonde pas en tentant de comprendre ce que vous souhaitez.

Déplacer les modèles Ollama vers un autre emplacement

Déplacer les modèles Ollama vers un autre emplacement

Les fichiers de modèles LLM d'Ollama prennent beaucoup de place.

Après avoir installé ollama, il est préférable de reconfigurer ollama pour qu’ils soient stockés dans un nouvel emplacement dès maintenant. Ainsi, après avoir tiré un nouveau modèle, il ne sera pas téléchargé vers l’ancien emplacement.

Test de vitesse des grands modèles de langage

Test de vitesse des grands modèles de langage

Testons la vitesse des LLM sur GPU vs CPU

Comparaison de la vitesse de prédiction de plusieurs versions de LLMs : llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) sur CPU et GPU.

Détection des fautes logiques avec les LLMs

Détection des fautes logiques avec les LLMs

Testons la qualité de détection des fautes logiques de différents LLMs

Ici, je compare plusieurs versions de LLM : Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) et Qwen (Alibaba).