Reclassement avec des modèles d'incorporation
Un code Python pour le reranking de RAG
Un code Python pour le reranking de RAG
Un nouveau modèle d'IA incroyable capable de générer une image à partir de texte
Récemment, Black Forest Labs a publié un ensemble de
modèles d’IA texte à image.
Ces modèles sont dit avoir une qualité de sortie bien plus élevée.
Essayons-les
Comparaison de deux moteurs de recherche IA auto-hébergés
Une excellente cuisine est aussi un plaisir pour les yeux. Mais dans cet article, nous allons comparer deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.
Exécuter un service de style Copilot en local ? C'est facile !
C’est très excitant ! Au lieu d’appeler Copilot ou Perplexity.ai et de révéler à tout le monde ce que vous recherchez, vous pouvez désormais héberger un service similaire sur votre propre PC ou ordinateur portable !
Test de détection des fautes de raisonnement
Récemment, nous avons vu plusieurs nouveaux LLM sortir. Des temps excitants. Testons-les et voyons comment ils se débrouillent lorsqu’ils détectent les fautes logiques.
Exige quelques expérimentations mais
Il existe toutefois quelques approches courantes pour rédiger des prompts efficaces afin que le modèle de langage ne se confonde pas en tentant de comprendre ce que vous souhaitez.
Exemples fréquemment utilisés de code Python
Parfois, j’ai besoin de cela mais je ne le trouve pas immédiatement.
Donc, je les garde toutes ici.
L’étiquetage et l’entraînement nécessitent un peu de collage.
Quand j’ai entraîné un détecteur d’objets AI il y a un certain temps - LabelImg était un outil très utile, mais l’exportation depuis Label Studio vers le format COCO n’était pas acceptée par le framework MMDetection..
« 8 versions de llama3 (Meta+) et 5 versions de phi3 (Microsoft) »
Testons comment les modèles avec différents nombres de paramètres et de quantification se comportent.
Les fichiers de modèles LLM d'Ollama prennent beaucoup d'espace.
Après l’installation d’Ollama, il est préférable de reconfigurer Ollama pour les stocker immédiatement dans le nouvel emplacement. Ainsi, lorsqu’un nouveau modèle est téléchargé, il ne sera pas enregistré dans l’ancien emplacement.
Testons la vitesse des LLM sur GPU vs CPU
Comparaison de la vitesse de prédiction de plusieurs versions de LLMs : llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) sur CPU et GPU.
Testons la qualité de détection des fautes logiques de différents LLMs
Ici, je compare plusieurs versions de LLM : Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) et Qwen (Alibaba).