DevOps

Plugins OpenClaw — Guide de l'écosystème et sélections pratiques

Plugins OpenClaw — Guide de l'écosystème et sélections pratiques

D'abord les plugins, puis une brève explication des compétences.

Cet article porte sur les plugins OpenClaw — des paquets de passerelle natifs qui ajoutent des canaux, des fournisseurs de modèles, des outils, de la parole, de la mémoire, des médias, une recherche web et d’autres surfaces d’exécution.

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Assistant Hermes IA - Installation, configuration, flux de travail et dépannage

Installation et démarrage rapide de l'agent Hermes pour les développeurs

Hermes Agent est un assistant IA auto-hébergé, agnostique quant aux modèles, qui s’exécute sur une machine locale ou un VPS à faible coût, fonctionne via l’interface terminal et des interfaces de messagerie, et s’améliore avec le temps en transformant les tâches répétitives en compétences réutilisables.

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.

Outils pour développeurs : Guide complet des flux de travail de développement modernes

Outils pour développeurs : Guide complet des flux de travail de développement modernes

Le développement logiciel implique l’utilisation de Git pour le contrôle de version, de Docker pour la conteneurisation, de Bash pour l’automatisation, de PostgreSQL pour les bases de données et de VS Code pour l’édition — ainsi que d’innombrables autres outils qui peuvent faire ou briser votre productivité. Cette page rassemble les fiches mémo, les flux de travail et les comparaisons essentielles dont vous avez besoin pour travailler efficacement sur toute la pile de développement.

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

Hébergez des APIs compatibles avec OpenAI en local avec LocalAI en quelques minutes.

LocalAI est un serveur d’inférence auto-hébergé, conçu en priorité pour une utilisation locale, qui se comporte comme une API OpenAI de remplacement pour exécuter des charges de travail d’IA sur votre propre matériel (ordinateur portable, station de travail ou serveur sur site).

Démarrage rapide de llama.cpp avec CLI et serveur

Démarrage rapide de llama.cpp avec CLI et serveur

Comment installer, configurer et utiliser OpenCode

Je reviens sans cesse à llama.cpp pour l’inférence locale : il vous offre un contrôle qu’Ollama et autres abstraient, et cela fonctionne simplement. Il est facile d’exécuter des modèles GGUF de manière interactive avec llama-cli ou d’exposer une API HTTP compatible OpenAI avec llama-server.

Outils de développement IA : le guide complet du développement assisté par l'IA

Outils de développement IA : le guide complet du développement assisté par l'IA

L’intelligence artificielle est en train de redéfinir la façon dont les logiciels sont écrits, revus, déployés et entretenus. Des assistants de codage IA à l’automatisation GitOps et aux flux de travail DevOps, les développeurs s’appuient désormais sur des outils alimentés par l’IA tout au long du cycle de vie du logiciel.