Docker

Início Rápido do Vane (Perplexica 2.0) com Ollama e llama.cpp

Início Rápido do Vane (Perplexica 2.0) com Ollama e llama.cpp

Busca de IA autohospedada com LLMs locais

Vane é uma das entradas mais pragmáticas no espaço de “busca de IA com citações”: um motor de respostas auto-hospedado que combina recuperação da web em tempo real com LLMs locais ou na nuvem, mantendo toda a pilha sob seu controle.

SGLang QuickStart: Instale, Configure e Execute LLMs via API OpenAI

SGLang QuickStart: Instale, Configure e Execute LLMs via API OpenAI

Execute modelos abertos com rapidez usando o SGLang.

O SGLang é um framework de serviço de alto desempenho para grandes modelos de linguagem e modelos multimodais, construído para fornecer inferência de baixa latência e alto throughput, desde uma única GPU até clusters distribuídos.

Ferramentas para Desenvolvedores: O Guia Completo de Fluxos de Trabalho Modernos

Ferramentas para Desenvolvedores: O Guia Completo de Fluxos de Trabalho Modernos

Desenvolver software envolve Git para controle de versão, Docker para containerização, bash para automação, PostgreSQL para bancos de dados e VS Code para edição — além de inúmeras outras ferramentas que podem fazer ou quebrar sua produtividade. Esta página reúne os atalhos essenciais, fluxos de trabalho e comparações necessários para trabalhar de forma eficiente em toda a pilha de desenvolvimento.

Início Rápido do LocalAI: Execute LLMs Compatíveis com OpenAI Localmente

Início Rápido do LocalAI: Execute LLMs Compatíveis com OpenAI Localmente

Hospede APIs compatíveis com OpenAI com o LocalAI em minutos.

O LocalAI é um servidor de inferência de auto-hospedagem, com prioridade local, projetado para funcionar como uma API OpenAI plug-and-play para executar cargas de trabalho de IA no seu próprio hardware (laptop, estação de trabalho ou servidor local).