Cheatsheet

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

Hébergez des APIs compatibles avec OpenAI en local avec LocalAI en quelques minutes.

LocalAI est un serveur d’inférence auto-hébergé, conçu en priorité pour une utilisation locale, qui se comporte comme une API OpenAI de remplacement pour exécuter des charges de travail d’IA sur votre propre matériel (ordinateur portable, station de travail ou serveur sur site).

Démarrage rapide de llama.cpp avec CLI et serveur

Démarrage rapide de llama.cpp avec CLI et serveur

Comment installer, configurer et utiliser OpenCode

Je reviens sans cesse à llama.cpp pour l’inférence locale : il vous offre un contrôle qu’Ollama et autres abstraient, et cela fonctionne simplement. Il est facile d’exécuter des modèles GGUF de manière interactive avec llama-cli ou d’exposer une API HTTP compatible OpenAI avec llama-server.

Feuille de rappels Jupyter Notebook

Feuille de rappels Jupyter Notebook

Raccourcis essentiels et commandes magiques

Améliorez rapidement la productivité avec le Jupyter Notebook grâce à des raccourcis essentiels, des commandes magiques et des conseils de workflow qui transformeront votre expérience en science des données et en développement.

Tables au format Markdown : Guide complet

Tables au format Markdown : Guide complet

Guide complet pour créer des tables en Markdown

Les tables sont l’une des fonctionnalités les plus puissantes des Markdown pour organiser et présenter des données structurées. Que vous créiez des documents techniques, des fichiers README ou des articles de blog, comprendre comment formater correctement les tables peut considérablement améliorer la lisibilité et la professionnalisme de votre contenu. Ce guide fait partie de notre Outils de documentation en 2026 : Markdown, LaTeX, PDF et flux de travail d’impression hub.