Applications de surveillance du GPU sous Linux / Ubuntu
Petite liste d'applications pour le suivi de la charge du GPU
Applications de surveillance de la charge du GPU :
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Petite liste d'applications pour le suivi de la charge du GPU
Applications de surveillance de la charge du GPU :
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Installer little k3s Kubernetes sur un cluster homelab
Voici un walkthrough étape par étape de
l’installation d’un cluster K3s à 3 nœuds
sur des serveurs physiques (1 maître + 2 travailleurs).
Aperçu très court des variantes de Kubernetes
Comparaison des distributions de self-hosting Kubernetes pour l’hébergement sur serveurs physiques ou serveurs domestiques, en se concentrant sur la facilité d’installation, les performances, les exigences système et les ensembles de fonctionnalités.
Choisir la meilleure version de Kubernetes pour notre homelab
Je compare les variantes de Kubernetes auto-hébergées que l’on peut utiliser dans un homelab basé sur Ubuntu avec 3 nœuds (16 Go de RAM, 4 cœurs chacun), en mettant l’accent sur la facilité d’installation et de maintenance, ainsi que le support des volumes persistants et des LoadBalancers.
Un peu sur les actions GitHub courantes et leur structure.
GitHub Actions
est une plateforme d’automatisation et de CI/CD au sein de GitHub, utilisée pour construire, tester et déployer votre code en fonction d’événements tels que les pushes, les demandes de fusion ou un calendrier.
Par ailleurs, docker-compose est différent de docker compose...
Voici un fichier d’astuces Docker Compose avec des exemples annotés pour vous aider à maîtriser rapidement les fichiers et les commandes Compose.
À propos d'Obsidian ...
Voici une analyse détaillée de
Obsidian en tant qu’outil puissant pour la gestion de la connaissance personnelle (GCP),
expliquant son architecture, ses fonctionnalités, ses forces et la manière dont il soutient les workflows modernes de gestion de la connaissance.
« En juillet 2025, il devrait bientôt être disponible »
Nvidia est sur le point de lancer le NVIDIA DGX Spark – un petit superordinateur d’IA basé sur l’architecture Blackwell, doté d’une mémoire unifiée de 128+Go et d’une performance d’IA de 1 PFLOPS. Un appareil intéressant pour exécuter les LLM.
Quels systèmes d'analyse web utiliser sur votre site web ?
Faisons un rapide aperçu de
Matomo, Plausible, Google et autres fournisseurs et systèmes d’analyse web
disponibles pour le déploiement en auto-hébergement et les comparons.
Notes sur la séquence d'installation standard d'Ubuntu 24.04
Voici ma préférée série d’étapes lors d’une installation fraîche d’Ubuntu 24.04. Ce que j’aime ici, c’est qu’il n’est pas nécessaire d’installer les pilotes NVidia ! Ils sont installés automagiquement.
J'utilisais Dokuwiki en tant que base de connaissances personnelle.
Dokuwiki est un wiki autohébergé qui peut être hébergé facilement sur site et ne nécessite aucun système de base de données. Je le faisais fonctionner en version conteneurisée, sur mon propre cluster Kubernetes.
Mise à jour des prix des GPU adaptés à l'IA - RTX 5080 et RTX 5090
Commençons par comparer les prix des meilleures cartes graphiques grand public, adaptées en particulier aux LLM et à l’IA en général. Examinons plus précisément les prix de la RTX 5080 et de la RTX 5090. Ils ont légèrement baissé.
Belle framework pour ETS/MLOPS avec Python
Apache Airflow est une plateforme open source conçue pour créer, planifier et surveiller des workflows de manière programmée, entièrement en code Python, offrant une alternative flexible et puissante aux outils traditionnels, manuels ou basés sur une interface graphique.
Mise en œuvre de RAG ? Voici quelques extraits de code en Go - 2...
Comme Ollama standard ne dispose pas d’API de rerank directe, vous devrez implémenter le reranking avec Qwen3 Reranker en GO en générant des embeddings pour les paires de requêtes et de documents et en les notant.
qwen3 8b, 14b et 30b, devstral 24b, mistral small 24b
Dans ce test, je suis en comparant comment différents LLMs hébergés sur Ollama traduisent une page Hugo en anglais vers l’allemand.
Trois pages que j’ai testées portaient sur des sujets différents, comportaient un joli markdown avec une certaine structure : titres, listes, tableaux, liens, etc.
Mise en œuvre de RAG ? Voici quelques extraits de code en Golang.
Ce petit exemple de code Go pour le reranking appelle Ollama pour générer des embeddings pour la requête et pour chaque document candidat, puis trie par ordre décroissant de similarité cosinus.