DevOps

Plugins de OpenClaw: Guía del Ecosistema y Opciones Prácticas

Plugins de OpenClaw: Guía del Ecosistema y Opciones Prácticas

Primero los complementos. Breve denominación de las habilidades.

Este artículo trata sobre los plugins de OpenClaw: paquetes de puerta de enlace nativa que añaden canales, proveedores de modelos, herramientas, voz, memoria, medios, búsqueda web y otras superficies de tiempo de ejecución.

Ollama en Docker Compose con GPU y almacenamiento persistente de modelos

Ollama en Docker Compose con GPU y almacenamiento persistente de modelos

Servidor Ollama con prioridad en composición, GPU y persistencia.

Ollama funciona muy bien en hardware físico (bare metal). Se vuelve aún más interesante cuando lo tratas como un servicio: un punto de conexión estable, versiones fijas, almacenamiento persistente y una GPU que está disponible o no lo está.

Herramientas para desarrolladores: La guía completa de los flujos de trabajo de desarrollo modernos

Herramientas para desarrolladores: La guía completa de los flujos de trabajo de desarrollo modernos

El desarrollo de software implica el uso de Git para el control de versiones, Docker para la contenerización, Bash para la automatización, PostgreSQL para bases de datos y VS Code para la edición, junto con innumerables otras herramientas que pueden hacer o romper tu productividad. Esta página recopila las hojas de referencia, flujos de trabajo y comparaciones esenciales que necesitas para trabajar de manera eficiente en toda la pila de desarrollo.

LocalAI QuickStart: Ejecute LLM compatibles con OpenAI localmente

LocalAI QuickStart: Ejecute LLM compatibles con OpenAI localmente

Ejecuta APIs compatibles con OpenAI de forma autohospedada con LocalAI en minutos.

LocalAI es un servidor de inferencia autohospedado y local-first diseñado para comportarse como una API de OpenAI de reemplazo directo para ejecutar cargas de trabajo de IA en tu propio hardware (portátil, estación de trabajo o servidor local).

Inicio rápido de llama.cpp con CLI y servidor

Inicio rápido de llama.cpp con CLI y servidor

Cómo instalar, configurar y utilizar OpenCode

Sigo volviendo a llama.cpp para la inferencia local: te da un control que Ollama y otros abstraen, y simplemente funciona. Es fácil ejecutar modelos GGUF de forma interactiva con llama-cli o exponer una API HTTP compatible con OpenAI con llama-server.