Rambus è uno dei principali sviluppatori di sistemi di memoria. L’azienda si concentra principalmente sulla proprietà intellettuale, sui controller di memoria e sulla comunicazione a livello fisico. Aziende come Samsung, SK Hynix e Micron prendono in licenza le tecnologie Rambus per creare le loro memorie.
HBM (High Bandwidth Memory) è un tipo di interfaccia tradizionalmente legata alle schede video dedicate ma sempre più utilizzata in ambito data center per i sistemi ad elevate prestazioni.
Le memorie HBM hanno una larghezza di banda più elevata rispetto alle DDR e GDDR e sono inoltre contraddistinte da un consumo energetico inferiore e un fattore di forma più compatto.
Rambus sta lavorando su HBM3, la terza versione dell’interfaccia che porta la larghezza di banda a ben 8,4 Gbps.
Il controller usa sedici canali a 64 bit per un bus totale di 1024 bit portando la velocità a 1.075 GB/s per stack di chip HBM3. Poiché i sistemi basati su HBM integrano più stack (2, 4, 8, 12 o 16) la larghezza di banda totale risulta funzione del numero totale di chip HBM impilati.
Per confronto una NVidia RTX 3090 ha una larghezza di banda di 936 GB/s.
L’idea di AMD era quella di ottenere un vantaggio tangibile rispetto alla concorrenza NVidia usando proprio chip HBM per velocizzare in particolare le applicazioni legate alla realtà virtuale. Il costo più elevato di HBM (costi di produzione e incapsulamento a livello di GPU) ha però indotto i produttori a continuare a puntare su GDDR confinando HBM agli utilizzi più specificamente professionali.
Finora, infatti, HBM si metteva in evidenza per la latenza minima ma il guadagno in termini di banda non era tale da giustificarne la scelta a fronte del costo nettamente più elevato.
Rambus ritiene invece che HBM3 possa essere ideale sia per l’intelligenza artificiale che in generale per il machine learning, applicazioni dove è richiesta un’elevata larghezza di banda con una latenza minima.