Huawei aggiorna la propria strategia sui data center per l’era dell’intelligenza artificiale e presenta un portafoglio che copre più livelli dell’infrastruttura: dal computing al networking fino al raffreddamento. Con la crescita delle applicazioni di IA, soprattutto agentica, e dei modelli adattati ai diversi settori, le imprese devono ripensare i data center in funzione di requisiti più severi su densità, consumi e continuità operativa.
Le soluzioni di Huawei per il data center del futuro
Tra le novità annunciate la più importante è probabilmente la Huawei AI Data Platform, una piattaforma pensata per sostenere gli agenti di IA in ambito enterprise e affrontare alcuni dei colli di bottiglia più ricorrenti, come l’uso inefficiente della memoria e la lentezza nell’inferenza.

La proposta integra tre componenti: generazione e recupero della conoscenza, estrazione e richiamo della memoria e accelerazione dell’inferenza tramite Unified Cache Manager.
Sul fronte networking, Huawei ha presentato Xinghe AI Fabric 2.0, evoluzione della soluzione di AI Fabric introdotta nel 2018. L’architettura è costruita su tre livelli, Intelligent Brain, Intelligent Connectivity e Intelligent Network Elements, e incorpora quattro funzioni principali:
-
Rock-Solid Architecture 2.0, che garantisce tre livelli di alta affidabilità grazie all’Eagle-Eye Engine;
-
StarryWing Digital Map 2.0, che offre tre livelli di automazione con NetMaster;
-
Xinghuan AI Turbo 2.0, che fornisce le capacità delle tecnologie Network Packet Load Balancing (NPLB) e Network Stream Load Balancing (NSLB);
-
iFlashboot 2.0, che consente riavvii ultra-rapidi in 5 secondi per garantire la continuità operativa.
Insieme a Xinghe AI Fabric 2.0, Huawei ha annunciato anche una nuova Scenario Driven Foundation Model Solution, proposta pensata per supportare implementazione e sviluppo di data center per l’IA con un approccio orientato agli scenari d’uso. L’obiettivo è quello di costruire reti di data center per applicazioni di IA agentica.

Per quanto riguarda l’hardware per il networking, l’azienda ha reso disponibile CloudEngine XH9230-128DQ-LC, il primo switch fisso commerciale raffreddato a liquido e dotato di 128 porte 400GE. Il sistema utilizza una struttura di raffreddamento proprietaria e un nuovo materiale per la conduzione termica che permette di raffreddare a liquido il 100% dei moduli ottici. Il risultato, secondo Huawei, è una dissipazione del calore doppia rispetto alla media del settore e la possibilità di installare fino a otto switch per cabinet, con un miglior utilizzo dello spazio.
A questo si aggiunge la famiglia di moduli ottici StarryLink 800GE e 400GE, progettata per ambienti ad alta densità e per trasmissioni su lunga distanza. Nel portafoglio 800GE rientrano anche gli switch modulari CloudEngine XH16800, con fino a 768 porte 800GE, oltre agli switch fissi CloudEngine XH9330 con 128 porte 800GE e CloudEngine XH9320 con 64 porte 800GE.
Ulteriori novità sono relative ai sistemi di raffreddamento: Huawei ha introdotto il Large Temperature Difference Cooling System, un sistema di raffreddamento sviluppato per affrontare l’aumento dei data center e i vincoli sempre più stringenti sulla PUE (Power Usage Effectiveness), che per i nuovi impianti vengono indicati fino a 1,25 o meno. Secondo l’azienda, l’approccio tradizionale ad acqua sta arrivando a un limite fisico e serve un cambio di architettura.
La proposta di Huawei punta a ottimizzare la rete di scambio termico e, stando ai dati diffusi dall’azienda, a migliorare l’efficienza di raffreddamento di oltre il 30%. I benefici sono tre: una revisione architetturale per sfruttare meglio il free cooling, un miglioramento progressivo del PUE grazie a simulazioni avanzate e ottimizzazione dei componenti, e una maggiore affidabilità operativa, con temperature più stabili e maggiore sicurezza per le apparecchiature.