Comparação de assistentes de codificação com IA
Cursor AI vs GitHub Copilot vs Cline AI vs...
Listarei aqui algumas ferramentas de codificação assistidas por IA e Assistentes de Codificação com IA e seus lados positivos.
Cursor AI vs GitHub Copilot vs Cline AI vs...
Listarei aqui algumas ferramentas de codificação assistidas por IA e Assistentes de Codificação com IA e seus lados positivos.
Curta lista de fornecedores de LLM
Usar LLMs não é muito caro, talvez não haja necessidade de comprar uma nova GPU incrível. Aqui está uma lista se provedores de LLM na nuvem com LLMs que eles hospedam.
Ollama no processador Intel CPU Eficiente vs. núcleos de Desempenho
Tenho uma teoria para testar - se utilizar todos os núcleos em uma CPU Intel aumentaria a velocidade dos LLMs? Estou incomodado com o fato de que o novo modelo gemma3 27 bit (gemma3:27b, 17GB no ollama) não está cabendo na VRAM de 16GB da minha GPU, e está rodando parcialmente na CPU.
A IA requer muito poder...
No meio do caos do mundo moderno, aqui estou comparando especificações técnicas de diferentes cartões adequados para tarefas de IA
(Deep Learning,
Detecção de Objetos
e LLMs).
No entanto, todos são extremamente caros.
Configurando ollama para execução de solicitações em paralelo.
Quando o servidor Ollama recebe duas solicitações ao mesmo tempo, seu comportamento depende de sua configuração e dos recursos do sistema disponíveis.
O que é esse coding assistido por IA que está em moda?
Vibe coding é uma abordagem de programação impulsionada por IA, onde os desenvolvedores descrevem a funcionalidade desejada em linguagem natural, permitindo que ferramentas de IA gerem código automaticamente.
Todo o conjunto de ferramentas MM* está em EOL...
Usei bastante o MMDetection (mmengine, mdet, mmcv), E agora parece que está fora do jogo. É uma pena. Gostei do seu zoo de modelos.
Comparando dois modelos deepseek-r1 com dois modelos base
Primeira geração dos modelos de raciocínio da DeepSeek com desempenho comparável ao de OpenAI-o1, incluindo seis modelos densos destilados a partir do DeepSeek-R1 baseados em Llama e Qwen.
Lista atualizada de comandos do Ollama - ls, ps, run, serve, etc
Este Guia Rápido do CLI do Ollama se concentra nos comandos que você usa todos os dias (ollama ls, ollama serve, ollama run, ollama ps, gerenciamento de modelos e fluxos de trabalho comuns), com exemplos que você pode copiar e colar.
Próxima rodada de testes de LLM
Há pouco tempo foi lançado. Vamos nos atualizar e
testar como o Mistral Small se compara a outros LLMs.
Um código Python para reclassificação do RAG
Um incrível novo modelo de IA para produzir uma imagem a partir de texto
Recentemente, a Black Forest Labs publicou um conjunto de modelos de IA de texto para imagem.
Esses modelos dizem-se ter uma qualidade de saída muito superior.
Vamos testá-los
Comparando duas ferramentas de busca por IA auto-hospedadas
Comida incrível é um prazer para os olhos também. Mas neste post, vamos comparar dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Executando um serviço do tipo copilot localmente? Fácil!
Isso é muito emocionante!
Em vez de chamar o copilot ou perplexity.ai e contar ao mundo inteiro o que você está buscando, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!
Não há tantas opções assim, mas ainda assim...
Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.
Testando detecção de falácias lógicas
Recentemente, vimos a liberação de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se saem ao detectar falácias lógicas.