Skip to main content

ASUS, nuova infrastruttura AI basata su NVIDIA Vera Rubin

Il framework, personalizzabile dalle AI Factory su scala rack ai supercomputing AI desktop fino alle soluzioni Edge AI ed Enterprise AI, consente di realizzare cluster AI ad alte prestazioni, energeticamente efficienti e su larga scala

In occasione della conferenza GTC 2026, ASUS ha svelato in anteprima mondiale una nuova infrastruttura AI completamente raffreddata a liquido, segnando un ulteriore passo avanti nella corsa globale verso sistemi ad alte prestazioni e sostenibili. Basata sulla piattaforma NVIDIA Vera Rubin, la soluzione si inserisce nella strategia “Trusted AI, Total Flexibility”, proponendo un ecosistema modulare capace di coprire ogni livello: dalle AI Factory su scala rack fino al supercomputing desktop, passando per edge ed enterprise AI. Il cuore dell’offerta è rappresentato da ASUS AI POD, un sistema rack-scale progettato per gestire carichi di lavoro estremi grazie al raffreddamento a liquido, che consente maggiore efficienza energetica e una significativa riduzione di PUE e TCO. In prima linea si colloca la soluzione XA VR721-E3, capace di raggiungere prestazioni fino a dieci volte superiori per watt e pensata per modelli con trilioni di parametri.

Per garantire continuità operativa e massima efficienza, ASUS ha stretto partnership con player globali come Vertiv e Schneider Electric, sviluppando infrastrutture integrate di alimentazione e raffreddamento senza compromessi. A queste si affianca una nuova generazione di server basati su NVIDIA HGX Rubin NVL8, con connettività avanzata e larghezza di banda elevata per GPU. L’offerta si completa con soluzioni ibride e full liquid cooling, oltre a server ad alte prestazioni come ESC8000 e sistemi MGX con connettività GPU-to-GPU estrema. Non mancano casi concreti: la serie ESC8000 è già stata utilizzata per creare digital twin industriali basati su NVIDIA Omniverse, riducendo rischi e tempi di implementazione.

Fondamentale anche l’ecosistema dati, costruito insieme a partner come IBM, DDN, WEKA e VAST Data, per offrire storage scalabile e resiliente adatto a carichi AI intensivi.

Parallelamente, ASUS spinge sull’edge AI con un approccio full-stack: dal supercomputer desktop ExpertCenter Pro ET900N G3 fino al compatto Ascent GX10 e al motore di inferenza rugged PE3000N. Queste soluzioni permettono di sviluppare e distribuire modelli AI, abilitando applicazioni come la sensor fusion e la navigazione autonoma.

Sul fronte enterprise debutta ASUS AI Hub, piattaforma on-premises che integra modelli open source e consente alle aziende di creare assistenti AI personalizzati mantenendo il controllo dei dati. I risultati interni parlano di incrementi di efficienza oltre il 30% e un utilizzo già diffuso tra migliaia di dipendenti.

Infine, grande attenzione alla sostenibilità: tecnologie come Thermal Radar 2.0 e il software ASUS Control Center permettono di ridurre consumi ed emissioni, contribuendo agli obiettivi ESG.

AI, efficienza energetica, Infrastruttura, liquid cooling, supercomputing


Office Automation è da 45 anni il mensile di riferimento e canale di comunicazione specializzato nell'ICT e nelle soluzioni per il digitale, promotore di convegni e seminari che si rivolge a CIO e IT Manager e ai protagonisti della catena del val...