Quand j’ai commencé à expérimenter avec les LLM, les interfaces utilisateur pour eux étaient en développement actif, et maintenant certaines d’entre elles sont vraiment excellentes.
Peut se connecter à plusieurs backends existants comme Anthropic, Cohere, OpenAI, NvidiaNIM, MistralAI, etc., et héberger des modèles sur son propre serveur - voir la section Cortex sur l’écran ci-dessous - montrant Jan téléchargé et hébergé localement Llama3 8b q4 et Phi3 medium (q4).
Alternative auto-hébergée de ChatGPT pour les LLM locaux
Open WebUI est une application web puissante, extensible et riche en fonctionnalités pour interagir avec les grands modèles de langage, hébergée localement.
Aperçu rapide des interfaces utilisateur les plus remarquables pour Ollama en 2025
Localement hébergé, Ollama permet d’exécuter des modèles de langage sur votre propre machine, mais son utilisation via la ligne de commande n’est pas très conviviale.
Voici plusieurs projets open source qui proposent des interfaces du style ChatGPT qui se connectent à un Ollama local.
Comparaison de deux moteurs de recherche d'IA auto-hébergés
La bonne nourriture est aussi un plaisir pour les yeux.
Mais dans cet article, nous allons comparer deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.
Exécuter un service du style Copilot localement ? Facile !
C’est très excitant !
Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde, vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !