NVIDIA alza ancora l’asticella con Vera Rubin, la nuova generazione di supercomputer AI

Dal palco del CES 2026, NVIDIA ha presentato quella che Jensen Huang ha definito una vera svolta per l’infrastruttura dell’intelligenza artificiale: Vera Rubin, una piattaforma di supercomputing pensata per sostenere la prossima ondata di modelli e applicazioni IA. Non una singola GPU, ma un sistema completo che integra nuove CPU e GPU sviluppate internamente, una radicale riprogettazione dei rack, una nuova architettura di rete e soluzioni mirate a superare i limiti di scala, efficienza ed energia che oggi frenano l’evoluzione dell’AI.

NVIDIA-CES2026

Nel keynote di apertura del CES, il CEO, Jensen Huang ha più volte sottolineato come l’IA stia ridefinendo l’intero stack computazionale: modelli sempre più grandi, fasi di training, post-training e test-time scaling sempre più onerose e una domanda di calcolo che cresce a ritmi incompatibili con un’evoluzione incrementale dell’hardware. Vera Rubin nasce per rispondere esattamente a questa sfida.

Una piattaforma progettata come un unico sistema

Il cuore di Vera Rubin è l’approccio di co-design estremo adottato da NVIDIA. La piattaforma combina la nuova CPU Vera, progettata specificamente per carichi IA, con la GPU Rubin, che rappresenta un salto generazionale netto rispetto a Blackwell. Rubin offre infatti cinque volte le prestazioni della generazione precedente, a fronte di un aumento del numero di transistor pari a solo 1,6 volte: un dato che evidenzia come i progressi non derivino più dalla semplice scalabilità del silicio, ma da un’ottimizzazione profonda dell’architettura.

NVIDIA-CES2026

CPU e GPU sono state progettate congiuntamente per condividere i dati in modo coerente e bidirezionale, riducendo la latenza e aumentando l’efficienza complessiva del sistema. Un passaggio cruciale, perché l’IA moderna non richiede solo potenza di calcolo, ma la capacità di muovere enormi volumi di dati tra compute, memoria e rete senza colli di bottiglia.

Rack modulari e assemblaggio in pochi minuti

Uno degli elementi più distintivi della piattaforma è la nuova architettura dei rack. NVIDIA ha completamente ripensato il design dei compute tray, eliminando cavi, tubazioni e componenti superflue. Il risultato è un sistema modulare, completamente liquid-cooled, che può essere assemblato in circa cinque minuti, contro le due ore necessarie per la generazione precedente.

NVIDIA-CES2026

Questo approccio ha un impatto che va oltre l’aspetto operativo. Ridurre drasticamente i tempi di assemblaggio e la complessità dell’infrastruttura significa accelerare il deployment delle AI Factory, riducendo errori, costi e tempi di fermo, e rendendo più rapida la messa in produzione di nuovi cluster.

La piattaforma Vera Rubin introduce anche una nuova architettura di rete, progettata per sostenere il traffico estremo generato dai carichi IA moderni. NVIDIA combina NVLink di sesta generazione, Spectrum-X Ethernet e le nuove DPU BlueField-4, che offrono fino a 1,6 terabit al secondo di bandwidth per GPU e permettono di isolare sicurezza, storage e networking dal compute vero e proprio.

La rete non è più un semplice elemento di collegamento, ma una componente strutturale della piattaforma. In un contesto in cui l’inferenza diventa un processo sempre più “pensante”, con una crescita esponenziale dei token generati, la capacità di mantenere bassa la latenza e alta la banda diventa determinante anche sul piano economico.

Efficienza energetica e confidential computing

Nonostante l’aumento significativo di potenza, Vera Rubin è stata progettata per migliorare anche l’efficienza energetica complessiva. L’intero sistema utilizza raffreddamento a liquido con acqua a 45 °C, eliminando la necessità di chiller e contribuendo a ridurre il consumo energetico dei data center. Secondo NVIDIA, questo approccio può avere un impatto rilevante sul consumo globale di energia legato alle infrastrutture IA.

NVIDIA-CES2026

Un altro elemento centrale è il supporto nativo al confidential computing: tutti i dati sono cifrati in transito, a riposo e durante l’elaborazione. Un requisito sempre più critico per aziende e service provider che devono gestire modelli e dati sensibili su infrastrutture condivise.

Physical AI e Alpamayo: oltre i language model

Accanto alla piattaforma Vera Rubin, NVIDIA ha delineato l’evoluzione della propria strategia sulla physical AI, ovvero modelli in grado di comprendere e interagire con il mondo fisico. In questo contesto si inserisce Alpamayo, un modello per la guida autonoma addestrato end-to-end che non si limita a eseguire comandi, ma ragiona sulle azioni che sta per intraprendere, spiegandone le motivazioni.

NVIDIA-CES2026

Alpamayo non è un language model, ma un modello progettato per interpretare sensori, simulazioni e scenari fisici complessi, sfruttando anche dati sintetici generati tramite piattaforme come Cosmos e Omniverse. Un esempio concreto di come NVIDIA stia estendendo l’IA oltre il dominio testuale, puntando su robotica, veicoli autonomi e sistemi industriali.

La visione NVIDIA per la prossima AI Factory

Con Vera Rubin, NVIDIA consolida una visione chiara: l’IA del futuro non può essere sostenuta da componenti isolati, ma richiede piattaforme integrate, progettate come un’unica macchina. CPU, GPU, rete, storage e raffreddamento diventano parti inseparabili di un sistema pensato per scalare l’intelligenza artificiale su dimensioni industriali.

È questa coerenza architetturale, più ancora dei numeri sulle prestazioni, il messaggio che emerge dal keynote di Jensen Huang e dagli annunci del CES 2026. Vera Rubin rappresenta il prossimo passo nell’evoluzione delle AI Factory, ponendo le basi hardware su cui verranno costruiti i modelli e le applicazioni della prossima generazione.