
Proxmox nel 2025: Un stack di virtualizzazione completo e pratico
Cos'è Proxmox?
Proxmox Virtual Environment (Proxmox VE) è un ipervisor di tipo 1 e una piattaforma di orchestrazione del data center open source costruita su Debian.
Cos'è Proxmox?
Proxmox Virtual Environment (Proxmox VE) è un ipervisor di tipo 1 e una piattaforma di orchestrazione del data center open source costruita su Debian.
Prezzi delle GPU per consumatori adatte all'AI - RTX 5080 e RTX 5090
Ancora e ancora confrontiamo i prezzi delle GPU per consumatori di alto livello, che sono particolarmente adatte per LLM e in generale per l’AI. Specificamente sto guardando a prezzi RTX-5080 e RTX-5090. Hanno subito un lieve calo.
Piccola lista di applicazioni per il monitoraggio del carico della GPU
Applicazioni per il monitoraggio del carico della GPU:
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Nel luglio 2025, presto dovrebbe essere disponibile
Nvidia sta per rilasciare NVIDIA DGX Spark - un piccolo supercomputer AI basato sull’architettura Blackwell con 128+GB di RAM unificata e un’efficienza AI di 1 PFLOPS. Un dispositivo interessante per eseguire LLM.
Aggiornamento dei prezzi delle GPU adatte all'AI - RTX 5080 e RTX 5090
Confrontiamo i prezzi delle GPU per consumatori di alto livello, adatte in particolare per LLM e in generale per l’AI. Guardiamo specificamente a prezzi RTX 5080 e RTX 5090. Sono leggermente diminuiti.
Verifica dei prezzi - RTX 5080 e RTX 5090
Solo tre mesi fa non vedevamo l’RTX 5090 in negozio, e ora eccola, ma i prezzi sono leggermente più alti rispetto al MRSP. Confrontiamo i prezzi più economici per l’RTX 5080 e l’RTX 5090 in Australia e vediamo come vanno le cose.
Piu RAM, meno potenza, e comunque cara come...
Sistema automatizzato di alto livello per un lavoro eccezionale.
Stai pensando di installare una seconda GPU per i modelli LLM?
Come le lane PCIe influenzano le prestazioni degli LLM? Dipende dal compito. Per l’addestramento e l’inferenza multi-GPU, la riduzione delle prestazioni è significativa.
E perché sto vedendo questo BSOD...
Sono stato colpito duramente da questo problema. Ma dovresti investigare e testare il tuo PC se il tuo BSOD è simile al mio.
La causa è Il problema di degradazione del processore di Intel nelle generazioni 13ª e 14ª.
Ollama su CPU Intel: efficienza vs prestazioni
Ho un’idea da testare: se l’utilizzo di tutti i core su un processore Intel aumenterebbe la velocità degli LLM? Mi sta infastidendo il fatto che il nuovo modello gemma3 27 bit (gemma3:27b, 17 GB su ollama) non entra nei 16 GB di VRAM della mia GPU e viene eseguito parzialmente sul CPU.
L'AI richiede molto potere...
Nel mezzo del caos del mondo moderno qui sto confrontando le specifiche tecniche di diverse schede adatte a AI compiti (Deep Learning, Object Detection e LLMs). Sono tutte incredibilmente costose però.
Configurare ollama per l'esecuzione di richieste parallele.
Quando il server Ollama riceve due richieste contemporaneamente, il suo comportamento dipende dalla sua configurazione e dalle risorse del sistema disponibili.
È molto più semplice rispetto ai vecchi driver per stampanti
L’installazione dell’ET-8500 su Windows è ben documentata nelle istruzioni. L’installazione del driver Linux ET-8500 è semplice ma non banale.
Verifichiamo la velocità degli LLM su GPU rispetto al CPU
Confronto della velocità di previsione di diverse versioni di LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) su CPU e GPU.