Cheatsheet

LocalAI QuickStart: Ejecute LLM compatibles con OpenAI localmente

LocalAI QuickStart: Ejecute LLM compatibles con OpenAI localmente

Ejecuta APIs compatibles con OpenAI de forma autohospedada con LocalAI en minutos.

LocalAI es un servidor de inferencia autohospedado y local-first diseñado para comportarse como una API de OpenAI de reemplazo directo para ejecutar cargas de trabajo de IA en tu propio hardware (portátil, estación de trabajo o servidor local).

Quickstart de llama.cpp con CLI y servidor

Quickstart de llama.cpp con CLI y servidor

Cómo instalar, configurar y usar OpenCode

Sigo volviendo a llama.cpp para la inferencia local, ya que me da el control que Ollama y otros abstraen, y simplemente funciona. Fácil de ejecutar modelos GGUF de forma interactiva con llama-cli o exponer una API HTTP OpenAI-compatible con llama-server.

Tablas en Markdown: Guía completa

Tablas en Markdown: Guía completa

Guía completa para crear tablas en Markdown

Las tablas son una de las funciones más poderosas de Markdown para organizar y presentar datos estructurados. Ya sea que estés creando documentación técnica, archivos README o entradas de blog, entender cómo formatear correctamente las tablas puede mejorar significativamente la legibilidad y profesionalismo de tu contenido. Esta guía forma parte de nuestro Herramientas de Documentación en 2026: Markdown, LaTeX, PDF y Flujos de Trabajo de Impresión hub.

Guía rápida de Snap Package Manager

Guía rápida de Snap Package Manager

Paquetes universales de Linux con el administrador Snap

Snap es el sistema revolucionario de gestión universal de paquetes de Canonical que lleva aplicaciones contenedizadas, actualizaciones automáticas y mayor seguridad a Ubuntu y otras distribuciones de Linux.