Al Computex 2025, NVIDIA ha segnato un’importante evoluzione nella propria strategia di interconnessione annunciando NVLink Fusion, iniziativa che consente a partner selezionati di impiegare il protocollo proprietario NVLink all’interno di progetti hardware eterogenei.
L’apertura, pur mantenendo un presidio tecnologico sull’ecosistema, punta ad accelerare la diffusione di architetture AI su scala rack integrando CPU e acceleratori non progettati a Santa Clara.
La mossa si inserisce in un contesto competitivo dinamico, caratterizzato dal neonato consorzio UALink promosso da AMD, Broadcom e Intel, che propone un’alternativa aperta e standardizzata.
Cos’è NVLink Fusion
NVLink Fusion estende la quinta generazione dell’interfaccia NVLink (NVLink 5) a soggetti esterni, mantenendo però un perimetro controllato: il collegamento “2C2” può unire CPU personalizzate a GPU Blackwell oppure ASIC personalizzati a CPU Grace, ma non consente la comunicazione diretta tra due componenti interamente custom.
In tal modo NVIDIA rimane elemento cardine dell’infrastruttura, pur offrendo ai partner una larghezza di banda bidirezionale fino a 1,8 TB/s, circa quattordici volte superiore a quella di PCI Express pur restando elettricamente compatibile.
La flessibilità consente di progettare nodi con chiplet NVLink accanto ai core di calcolo, riducendo latenze interne e colli di bottiglia che penalizzerebbero le pipeline di addestramento dei modelli.
Obiettivi e benefici strategici
L’annuncio risponde a due esigenze complementari. Da un lato, NVLink Fusion permette a operatori cloud, hyperscaler e OEM di combinare acceleratori NVIDIA con CPU o ASIC specializzati, ottimizzando i costi energetici e le prestazioni per workload specifici.
Dall’altro, consente a NVIDIA di contrastare l’appeal di soluzioni alternative quali UALink, difendendo la propria quota di mercato senza chiudere la porta all’innovazione esterna. Il modello “aperto ma non troppo” consente di preservare la coerenza della catena software — ora rafforzata dalla suite Mission Control, piattaforma di orchestrazione che raggruppa validazione, monitoraggio e gestione dei carichi — minimizzando le complessità d’integrazione per i data center operator.
Con un singolo stack certificato, i partner evitano di implementare driver proprietari o patch kernel ad hoc, riducendo il time-to-market di nuove configurazioni.
Partnership e tempistiche di mercato
Tra i primi aderenti spiccano Qualcomm e Fujitsu per il versante CPU. Qualcomm, intenzionata a rientrare nel segmento server, svilupperà processori datacenter ottimizzati per il collegamento NVLink, mentre Fujitsu pianifica di integrare la tecnologia nella futura CPU Monaka a 2 nm da 144 core Arm; in sede di presentazione, il CTO Vivek Mahajan ha evidenziato come la connessione diretta alle architetture NVIDIA rappresenti un passaggio chiave verso sistemi AI più scalabili e sostenibili.
Sul fronte degli accelerator ASIC compaiono MediaTek, Marvell, Alchip e Astera Labs, con l’ausilio delle IP e degli strumenti EDA forniti da Cadence e Synopsys per l’implementazione fisica di NVLink all’interno dei die.
Al momento del lancio non sono state fornite date precise per i primi campioni di silicio: la disponibilità dipenderà dai rispettivi cicli di progettazione, ma gli stakeholder puntano a prototipi entro la seconda metà del 2026.