Docker

Démarrage rapide de Vane (Perplexica 2.0) avec Ollama et llama.cpp

Démarrage rapide de Vane (Perplexica 2.0) avec Ollama et llama.cpp

Recherche IA auto-hébergée avec des LLM locaux

Vane est l’une des entrées les plus pragmatiques dans le domaine de la « recherche IA avec citations » : un moteur de réponse auto-hébergé qui combine la récupération web en direct avec des LLM locaux ou cloud, tout en gardant toute la pile sous votre contrôle.

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Installation et démarrage rapide de l'agent Hermes pour les développeurs

Hermes Agent est un assistant IA auto-hébergé, agnostique quant aux modèles, qui s’exécute sur une machine locale ou un VPS à faible coût, fonctionne via l’interface terminal et des interfaces de messagerie, et s’améliore avec le temps en transformant les tâches répétitives en compétences réutilisables.

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.

Outils pour développeurs : Guide complet des flux de travail de développement modernes

Outils pour développeurs : Guide complet des flux de travail de développement modernes

Le développement logiciel implique l’utilisation de Git pour le contrôle de version, de Docker pour la conteneurisation, de Bash pour l’automatisation, de PostgreSQL pour les bases de données et de VS Code pour l’édition — ainsi que d’innombrables autres outils qui peuvent faire ou briser votre productivité. Cette page rassemble les fiches mémo, les flux de travail et les comparaisons essentielles dont vous avez besoin pour travailler efficacement sur toute la pile de développement.

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

Hébergez des APIs compatibles avec OpenAI en local avec LocalAI en quelques minutes.

LocalAI est un serveur d’inférence auto-hébergé, conçu en priorité pour une utilisation locale, qui se comporte comme une API OpenAI de remplacement pour exécuter des charges de travail d’IA sur votre propre matériel (ordinateur portable, station de travail ou serveur sur site).