LLM

Plugins OpenClaw — Guide de l'écosystème et sélections pratiques

Plugins OpenClaw — Guide de l'écosystème et sélections pratiques

D'abord les plugins, puis une brève explication des compétences.

Cet article porte sur les plugins OpenClaw — des paquets de passerelle natifs qui ajoutent des canaux, des fournisseurs de modèles, des outils, de la parole, de la mémoire, des médias, une recherche web et d’autres surfaces d’exécution.

Démarrage rapide de Vane (Perplexica 2.0) avec Ollama et llama.cpp

Démarrage rapide de Vane (Perplexica 2.0) avec Ollama et llama.cpp

Recherche IA auto-hébergée avec des LLM locaux

Vane est l’une des entrées les plus pragmatiques dans le domaine de la « recherche IA avec citations » : un moteur de réponse auto-hébergé qui combine la récupération web en direct avec des LLM locaux ou cloud, tout en gardant toute la pile sous votre contrôle.

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Installation et démarrage rapide de l'agent Hermes pour les développeurs

Hermes Agent est un assistant IA auto-hébergé, agnostique quant aux modèles, qui s’exécute sur une machine locale ou un VPS à faible coût, fonctionne via l’interface terminal et des interfaces de messagerie, et s’améliore avec le temps en transformant les tâches répétitives en compétences réutilisables.

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.