Hardware

GNOME Boxes: Una guida completa alle funzionalità, vantaggi, sfide e alternative

GNOME Boxes: Una guida completa alle funzionalità, vantaggi, sfide e alternative

Gestione semplice di VM per Linux con GNOME Boxes

Nel panorama attuale dell’informatica, la virtualizzazione è diventata essenziale per lo sviluppo, i test e l’esecuzione di diversi sistemi operativi. Per gli utenti Linux che cercano un modo semplice e intuitivo per gestire le macchine virtuali, GNOME Boxes si distingue come un’opzione leggera e user-friendly che privilegia l’usabilità senza sacrificare le funzionalità.

ASIC per LLM e chip specializzati per l'inferenza (e perché sono importanti)

ASIC per LLM e chip specializzati per l'inferenza (e perché sono importanti)

Gli ASIC e i silicio personalizzati migliorano velocità ed efficienza dell'inferenza degli LLM.

Il futuro dell’AI non riguarda solo modelli più intelligenti. Riguarda anche il silicio che corrisponde al modo in cui questi modelli vengono effettivamente eseguiti. L’hardware specializzato per l’inference degli LLM sta seguendo una strada che ricorda il passaggio del mining di Bitcoin dalle GPU agli ASIC costruiti appositamente, sebbene con vincoli più stringenti perché modelli e schemi di precisione continuano a evolversi.

DGX Spark vs. Mac Studio: un'analisi al ribasso del supercomputer personale AI di NVIDIA

DGX Spark vs. Mac Studio: un'analisi al ribasso del supercomputer personale AI di NVIDIA

Disponibilità, prezzi reali al dettaglio in sei paesi e confronto con Mac Studio.

NVIDIA DGX Spark è reale, in vendita dal 15 ottobre 2025, ed è rivolto agli sviluppatori CUDA che necessitano di lavori locali con LLM con uno stack NVIDIA AI integrato. Prezzo di listino USA $3.999; il prezzo al dettaglio nel Regno Unito/DE/JP è più alto a causa dell’IVA e dei canali di distribuzione. I prezzi pubblici AUD/KRW non sono ancora ampiamente pubblicati.

Come Ollama gestisce le richieste parallele

Come Ollama gestisce le richieste parallele

Configurare ollama per l'esecuzione di richieste parallele.

Quando il server Ollama riceve due richieste contemporaneamente, il suo comportamento dipende dalla sua configurazione e dalle risorse del sistema disponibili.