LLM Hosting

Enshittification do Ollama - os Primeiros Sinais

Enshittification do Ollama - os Primeiros Sinais

Minha visão sobre o estado atual do desenvolvimento do Ollama

A Ollama tornou-se rapidamente uma das ferramentas mais populares para executar LLMs localmente.

Sua CLI simples e gestão de modelos simplificada tornaram-na uma opção preferencial para desenvolvedores que desejam trabalhar com modelos de IA fora da nuvem.

Interfaces de Chat para Instâncias Locais do Ollama

Interfaces de Chat para Instâncias Locais do Ollama

Visão geral rápida das principais interfaces de usuário para Ollama em 2025

O Ollama hospedado localmente permite executar modelos de linguagem grandes na sua própria máquina, mas usá-lo via linha de comando não é amigável. Aqui estão vários projetos de código aberto que oferecem interfaces estilo ChatGPT que se conectam a uma instância local do Ollama.

Testando o Deepseek-R1 no Ollama

Testando o Deepseek-R1 no Ollama

Comparando dois modelos deepseek-r1 com dois modelos base

A primeira geração de modelos de raciocínio da DeepSeek com desempenho comparável ao OpenAI-o1, incluindo seis modelos densos destilados do DeepSeek-R1 com base em Llama e Qwen.

Farfalle x Perplexica

Farfalle x Perplexica

Comparando dois motores de busca de IA auto-hospedados

Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.

Hospedagem própria do Perplexica - com Ollama

Hospedagem própria do Perplexica - com Ollama

Executando um serviço estilo Copilot localmente? Fácil!

Isso é muito emocionante! Em vez de chamar o Copilot ou o Perplexity.ai e contar a todos o que você busca, agora você pode hospedar um serviço similar no seu próprio PC ou laptop!