SelfHosting

Plugins OpenClaw — Guide de l'écosystème et sélections pratiques

Plugins OpenClaw — Guide de l'écosystème et sélections pratiques

D'abord les plugins, puis une brève explication des compétences.

Cet article porte sur les plugins OpenClaw — des paquets de passerelle natifs qui ajoutent des canaux, des fournisseurs de modèles, des outils, de la parole, de la mémoire, des médias, une recherche web et d’autres surfaces d’exécution.

Démarrage rapide de Vane (Perplexica 2.0) avec Ollama et llama.cpp

Démarrage rapide de Vane (Perplexica 2.0) avec Ollama et llama.cpp

Recherche IA auto-hébergée avec des LLM locaux

Vane est l’une des entrées les plus pragmatiques dans le domaine de la « recherche IA avec citations » : un moteur de réponse auto-hébergé qui combine la récupération web en direct avec des LLM locaux ou cloud, tout en gardant toute la pile sous votre contrôle.

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Installation et démarrage rapide de l'agent Hermes pour les développeurs

Hermes Agent est un assistant IA auto-hébergé, agnostique quant aux modèles, qui s’exécute sur une machine locale ou un VPS à faible coût, fonctionne via l’interface terminal et des interfaces de messagerie, et s’améliore avec le temps en transformant les tâches répétitives en compétences réutilisables.

Démarrage rapide de llama.cpp avec CLI et serveur

Démarrage rapide de llama.cpp avec CLI et serveur

Comment installer, configurer et utiliser OpenCode

Je reviens sans cesse à llama.cpp pour l’inférence locale : il vous offre un contrôle qu’Ollama et autres abstraient, et cela fonctionne simplement. Il est facile d’exécuter des modèles GGUF de manière interactive avec llama-cli ou d’exposer une API HTTP compatible OpenAI avec llama-server.