Micron ha appena annunciato il lancio della sua memoria HBM3E 12-Hi, un passo significativo per soddisfare le crescenti esigenze computazionali derivanti dai carichi di lavoro correlati con le applicazioni di intelligenza artificiale (IA). Con la continua evoluzione delle applicazioni di intelligenza artificiale, la larghezza di banda e la capacità della memoria diventano sempre più cruciali per le prestazioni dei sistemi.
Ecco quindi che le GPU destinate al settore IA utilizzano sempre più spesso memorie di tipo HBM (High Bandwidth Memory) ad alte prestazioni, capacità di memoria significative e una maggiore efficienza energetica. In questo contesto, Micron si pone in una posizione avanguardista sul piano dell’innovazione, essendo già in grado di consegnare ai partner industriali più importanti una gamma di unità HBM3E 12-Hi pronte per l’uso in produzione.
Cosa sono le memorie HBM3E 12-Hi
Le nuove memorie HBM3E 12-Hi da 36 GB di Micron assicurano un consumo energetico significativamente inferiore rispetto alle soluzioni concorrenti 8-Hi da 24 GB, nonostante presentino un incremento del 50% nella capacità. L’aumento della capacità delle DRAM consente l’esecuzione di modelli IA più estesi, come Llama 2 con 70 miliardi di parametri su un singolo chip.
Un approccio del genere garantisce tempi di risposta più rapidi evitando di caricare la CPU e scongiurando qualunque tipo di comunicazione più lenta.
In termini di prestazioni, le memorie HBM3E 12-Hi di Micron offrono oltre 1,2 terabyte al secondo (TB/s) di larghezza di banda, con velocità di trasferimento sul singolo pin superiori a 9,2 Gbps.
Le HBM3E 12-Hi di Micron includono anche un sistema MBIST (Memory Built-In Self-Test) completamente programmabile, in grado di simulare traffico rappresentativo del sistema e misurare le massime prestazioni ottenibili.
Micron collabora con TSMC
La produzione di sistemi IA è complessa e l’integrazione delle memorie HBM3E richiede una collaborazione stretta tra fornitori di memoria, aziende di assemblaggio e test esternalizzati (OSAT) e clienti. Ecco perché Micron sta collaborando attivamente con TSMC attraverso l’alleanza 3DFabric, un’iniziativa che mira a plasmare il futuro delle innovazioni nei semiconduttori e nei sistemi informatici di alto livello.
Dan Kochpatcharin, responsabile della divisione Ecosystem and Alliance Management di TSMC, ha affermato: “TSMC e Micron hanno goduto di una partnership strategica a lungo termine, lavorando a stretto contatto per abilitare il design del sistema HBM3E di Micron e il packaging CoWoS per supportare l’innovazione AI dei nostri clienti“.
Con 36 GB di capacità, Micron HBM3E 12-Hi consente agli amministratori dei data center di scalare i carichi di lavoro IA in modo fluido, senza soluzione di continuità.
Prospettive future
Il portafoglio di tecnologia per le moderne memorie e i sistemi di archiviazione che Micron ha messo a punto, permetteranno di soddisfare le esigenze in evoluzione dei carichi di lavoro IA.
HBM è una memoria progettata per essere fisicamente vicine ai chip: spesso è infatti integrata nello stesso package o in un substrato comune. Questa vicinanza riduce la latenza nel trasferimento dei dati, consentendo ai processori di accedere rapidamente ai dati memorizzati.
Micron offre però soluzioni concrete per la memoria principale, ad esempio RDIMM ad alta capacità in ambito server. Oltre a SSD NVMe Gen 6 PCI e unità a stato solido per la gestione di data lake, ossia enormi volumi di dati non strutturati, semi-strutturati e strutturati.
Guardando al futuro, Micron continua a spingere per l’innovazione con HBM4 e HBM4E, ritagliandosi un ruolo da protagonista nella fornitura di tecnologie all’avanguardia.