DevOps

Plugins OpenClaw — Guia do Ecossistema e Escolhas Práticas

Plugins OpenClaw — Guia do Ecossistema e Escolhas Práticas

Plugins primeiro. Nomenclatura de habilidades em resumo.

Este artigo trata dos plugins do OpenClaw — pacotes nativos de gateway que adicionam canais, provedores de modelos, ferramentas, voz, memória, mídia, pesquisa web e outras superfícies de tempo de execução.

SGLang QuickStart: Instale, Configure e Execute LLMs via API OpenAI

SGLang QuickStart: Instale, Configure e Execute LLMs via API OpenAI

Execute modelos abertos com rapidez usando o SGLang.

O SGLang é um framework de serviço de alto desempenho para grandes modelos de linguagem e modelos multimodais, construído para fornecer inferência de baixa latência e alto throughput, desde uma única GPU até clusters distribuídos.

Ferramentas para Desenvolvedores: O Guia Completo de Fluxos de Trabalho Modernos

Ferramentas para Desenvolvedores: O Guia Completo de Fluxos de Trabalho Modernos

Desenvolver software envolve Git para controle de versão, Docker para containerização, bash para automação, PostgreSQL para bancos de dados e VS Code para edição — além de inúmeras outras ferramentas que podem fazer ou quebrar sua produtividade. Esta página reúne os atalhos essenciais, fluxos de trabalho e comparações necessários para trabalhar de forma eficiente em toda a pilha de desenvolvimento.

Início Rápido do LocalAI: Execute LLMs Compatíveis com OpenAI Localmente

Início Rápido do LocalAI: Execute LLMs Compatíveis com OpenAI Localmente

Hospede APIs compatíveis com OpenAI com o LocalAI em minutos.

O LocalAI é um servidor de inferência de auto-hospedagem, com prioridade local, projetado para funcionar como uma API OpenAI plug-and-play para executar cargas de trabalho de IA no seu próprio hardware (laptop, estação de trabalho ou servidor local).

Início Rápido do llama.cpp com CLI e Servidor

Início Rápido do llama.cpp com CLI e Servidor

Como instalar, configurar e usar o OpenCode

Volto constantemente ao llama.cpp para inferência local – ele oferece um controle que o Ollama e outros abstraem, e simplesmente funciona. É fácil executar modelos GGUF de forma interativa com o llama-cli ou expor uma API HTTP compatível com OpenAI com o llama-server.