Comparaison des assistants de codage par IA
Cursor IA contre GitHub Copilot contre Cline IA...
Voici une liste d’outils d’assistance au codage basés sur l’intelligence artificielle (IA) et leurs avantages.
Cursor IA contre GitHub Copilot contre Cline IA...
Voici une liste d’outils d’assistance au codage basés sur l’intelligence artificielle (IA) et leurs avantages.
Liste courte des fournisseurs de LLM
L’utilisation des LLM n’est pas très coûteuse, il pourrait ne pas être nécessaire d’acheter un nouveau GPU impressionnant. Voici une liste si fournisseurs de LLM en nuage avec les LLM qu’ils hébergent.
Ollama sur processeur Intel : cœurs d'efficacité vs cœurs de performance
J’ai une théorie à tester - si l’utilisation de tous les cœurs d’un processeur Intel augmenterait la vitesse des LLM ? Cela me tracasse que le nouveau modèle gemma3 27 bit (gemma3:27b, 17 Go sur ollama) ne tienne pas dans les 16 Go de VRAM de mon GPU, et qu’il s’exécute partiellement sur le CPU.
L'IA nécessite beaucoup de puissance...
Dans le milieu du chaos du monde moderne ici, je compare les spécifications techniques de différentes cartes adaptées aux tâches IA
(Deep Learning,
Détection d’objets
et LLMs).
Elles sont toutes extrêmement chères toutefois.
Configurer ollama pour l'exécution de requêtes en parallèle.
Lorsque le serveur Ollama reçoit deux demandes en même temps, son comportement dépend de sa configuration et des ressources système disponibles.
Qu'est-ce que ce codage assisté par l'IA à la mode ?
Vibe coding est une approche de programmation pilotée par l’IA où les développeurs décrivent les fonctionnalités souhaitées en langage naturel, permettant aux outils d’IA de générer automatiquement du code.
L'ensemble complet des outils MM* est en fin de vie...
J’ai utilisé MMDetection (mmengine, mdet, mmcv) assez souvent,
et maintenant il semble qu’il ait quitté la scène.
C’est une perte. J’aimais sa zoo de modèles.
« Comparaison de deux modèles deepseek-r1 avec deux modèles de base »
DeepSeek’s première génération de modèles de raisonnement avec des performances comparables à celles d’OpenAI-o1, incluant six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen.
Liste mise à jour des commandes Ollama - ls, ps, run, serve, etc.
Ce Ollama CLI cheatsheet se concentre sur les commandes que vous utilisez tous les jours (ollama ls, ollama serve, ollama run, ollama ps, gestion des modèles et flux de travail courants), avec des exemples que vous pouvez copier/coller.
Prochaine série de tests LLM
Il y a peu de temps, a été publié. Commençons par un point sur la mise à jour et testons comment Mistral Small se compare aux autres LLMs ici.
Un code Python pour le reranking de RAG
Un nouveau modèle d'IA incroyable capable de générer une image à partir de texte
Récemment, Black Forest Labs a publié un ensemble de
modèles d’IA texte à image.
Ces modèles sont dit avoir une qualité de sortie bien plus élevée.
Essayons-les
Comparaison de deux moteurs de recherche d'IA auto-hébergés
La bonne nourriture est aussi un plaisir pour les yeux. Mais dans cet article, nous allons comparer deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.
Exécuter un service du style Copilot localement ? Facile !
C’est très excitant !
Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde, vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !
Pas tant d'options à choisir, mais tout de même...
Quand j’ai commencé à expérimenter avec les LLM, les interfaces utilisateur pour eux étaient en développement actif, et maintenant certaines d’entre elles sont vraiment excellentes.
Test de détection des fautes de raisonnement
Récemment, nous avons vu plusieurs nouveaux LLM sortir. Des temps excitants. Testons-les et voyons comment ils se débrouillent lorsqu’ils détectent les fautes logiques.