
Proxmox em 2025: Uma pilha de virtualização prática e completa
O que é o Proxmox?
Proxmox Virtual Environment (Proxmox VE) é um hipervisor de tipo 1 e uma plataforma de orquestração de datacenter de código aberto construída sobre o Debian.
O que é o Proxmox?
Proxmox Virtual Environment (Proxmox VE) é um hipervisor de tipo 1 e uma plataforma de orquestração de datacenter de código aberto construída sobre o Debian.
Preços de GPUs para Consumo Adequadas para IA - RTX 5080 e RTX 5090
Mais uma vez, vamos comparar os preços das GPUs de alto desempenho para consumidores, que são adequadas, em particular, para LLMs e, em geral, para IA.
Especificamente, estou olhando para preços do RTX-5080 e RTX-5090. Eles tiveram uma leve redução.
Pequena lista de aplicações para monitoramento de carga da GPU
Aplicações de monitoramento de carga da GPU:
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Em julho de 2025, em breve deverá estar disponível
Nvidia está prestes a lançar NVIDIA DGX Spark - pequeno supercomputador de IA baseado na arquitetura Blackwell com 128+GB de memória unificada e 1 PFLOPS de desempenho de IA. Dispositivo interessante para executar LLMs.
Atualização de preços de GPU adequada para IA - RTX 5080 e RTX 5090
Vamos comparar preços para GPUs de topo de linha para consumidores, que são adequadas para LLMs em particular e para IA em geral. Especificamente, dê uma olhada em preços da RTX 5080 e RTX 5090. Eles tiveram uma leve queda.
Verificação da realidade dos preços - RTX 5080 e RTX 5090
Apenas 3 meses atrás, não víamos a RTX 5090 nas lojas, e agora aqui estão, mas os preços estão ligeiramente mais altos que o MRSP.
Vamos comparar os preços mais baixos para RTX 5080 e RTX 5090 na Austrália e ver como está a situação.
Mais RAM, menos potência e ainda caro como...
Top sistema automatizado para alguma tarefa incrível.
Pensando em instalar uma segunda GPU para LLMs?
Como os canais PCIe afetam o desempenho dos LLM? Dependendo da tarefa. Para treinamento e inferência com múltiplos GPUs - a queda de desempenho é significativa.
E por que tenho estado vendo esse BSOD...
Fui muito impactado por esse problema. Mas você deve investigar e testar seu PC se seu BSOD for igual ao meu.
A causa foi o problema de degradação do CPU da Intel nas gerações 13ª e 14ª.
Ollama em CPU da Intel: núcleos eficientes vs. núcleos de desempenho
Tenho uma teoria para testar – se utilizar todos os núcleos de um processador Intel aumentaria a velocidade dos LLMs? Estou incomodado com o fato de que o novo modelo gemma3 27 bit (gemma3:27b, 17GB no ollama) não está cabendo na VRAM de 16GB da minha GPU, e está sendo executado parcialmente no CPU.
A IA exige muita potência...
No meio do caos do mundo moderno aqui estou comparando especificações técnicas de diferentes cartas adequadas para tarefas de IA
(Deep Learning,
Detecção de Objetos
e LLMs).
Elas são todas incrivelmente caras, no entanto.
Configurando ollama para execução de solicitações em paralelo.
Quando o servidor Ollama recebe duas solicitações ao mesmo tempo, seu comportamento depende da sua configuração e dos recursos do sistema disponíveis.
É muito mais simples do que comparar com os drivers de impressoras antigos.
A instalação do ET-8500 no Windows está bem documentada nas instruções.
A instalação do driver Linux ET-8500 é simples, mas não trivial.
Vamos testar a velocidade dos LLMs na GPU versus a CPU
Comparando a velocidade de previsão de várias versões de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) em CPU e GPU.