Mentre l’obiettivo di tanti vendor è portare l’intelligenza artificiale anche in locale, sui dispositivi dei singoli utenti, grazie ad esempio all’uso di NPU (Neural Processing Unit), in ambito data center i vari player auspicano all’individuazione di nuove soluzioni che permettano di combinare la potenza computazionale di più sistemi velocizzando il trasferimento dati. Il 30 maggio 2024, otto giganti tecnologici – AMD, Intel, Google, Microsoft, Meta, Broadcom, Cisco e Hewlett Packard Enterprise (HPE) – hanno annunciato la creazione di un nuovo standard industriale aperto denominato Ultra Accelerator Link (UALink).
Cos’è UALink e perché è importante per accelerare l’intelligenza artificiale
L’accordo su uno standard condiviso come UALink mira a rivoluzionare le comunicazioni ad alta velocità e bassa latenza tra acceleratori AI nei data center di nuova generazione.
Grazie all’adozione di UALink, i produttori hardware, i professionisti e i system integrator possono contare su una maggiore integrazione, flessibilità e scalabilità in ambito data center. La creazione di un ambiente aperto e ad alte prestazioni ottimizzato per i carichi di lavoro legati all’intelligenza artificiale, rappresenta un passo cruciale.
La versione 1.0 di UALink permette il collegamento di un numero massimo di 1024 acceleratori in un singolo “pod” di calcolo AI, creando una rete affidabile, scalabile e a bassa latenza. Questa specifica è sviluppata in maniera tale da facilitare e ottimizzare il trasferimento diretto dei dati tra le memorie collegate agli acceleratori, come AMD Instinct e Intel Gaudi di Intel. L’obiettivo è evidentemente quello di migliorare le performance e l’efficienza del computing in ambito IA.
Sia Intel che AMD sottolineano l’importanza dell’iniziativa che permetterà di guardare alla costruzione di un ecosistema AI aperto e dinamico.
Una sfida a NVIDIA, che domina il segmento dell’hardware per l’IA
Sebbene NVIDIA non sia mai esplicitamente citata, il silenzio appare davvero assordante. Nella lista delle aziende “unitesi” per supportare UALink, NVIDIA non è presente. Perché?
Perché NVIDIA, che svolge un ruolo di primo piano nella progettazione, sviluppo e commercializzazione di hardware per le applicazioni di intelligenza artificiale, ha già la sua infrastruttura proprietaria. Quindi non partecipa a UALink che, evidentemente, rappresenta proprio il tentativo delle 8 famose aziende di competere con NVIDIA, offrendo un’alternativa aperta e standardizzata per l’accelerazione IA.
La ragione principale del forfait di NVIDIA è riconducibile al fatto che l’azienda guidata da Jensen Huang non ha interesse a collaborare su uno standard che potrebbe competere direttamente con le sue soluzioni proprietarie. NVLink di NVIDIA è già una soluzione affermata per l’interconnessione dei suoi acceleratori: fornisce una comunicazione ad alta velocità e bassa latenza tra le GPU. NVIDIA ha investito enormi risorse nello sviluppo e nell’ottimizzazione di NVLink, rendendolo una componente chiave delle sue offerte di calcolo ad alte prestazioni.
Credit immagine in apertura: iStock.com – Maxiphoto