NVIDIA svela GPU GH200, un mostro per l'intelligenza artificiale

NVIDIA ha sganciato la bomba: al SIGGRAPH ha presentato la GPU Hopper GH200, riaffermandosi in prima linea per lo sviluppo delle IA.

A pochi giorni dalla presentazione di NVIDIA Perfusion, nuovo modello text-to-image dal peso pari ad appena 100 KB, il colosso di Jensen Huang fa il bis per l’intelligenza artificiale annunciando la GPU GH200 con tecnologia HBM3e. Si tratta del primo chip grafico con questo standard, concepito con l’obiettivo di garantire velocità sorprendenti lato memoria. La GPU Hopper GH200, difatti, triplica la larghezza di banda del chip GH100!

Scopriamo la GPU NVIDIA GH200

Come comunicato dalla stessa società statunitense, la GPU Hopper GH200 è la prima al mondo con tecnologia HBM3e e si dota di un sistema dual-Grace Hopper. Cosa significa? Molto semplicemente, è dotato di due chip Grace Hopper per server e datacenter anziché di un chip singolo. Con lo standard HBM3e, dunque, può raggiungere una capacità di memoria superiore di 3,5 volte rispetto al chip GH100, per un totale massimo di 282 GB di memoria con velocità maggiori del 50%. In altri termini ancora, il bandwidth arriva fino a 10 TB/s per GPU, ovvero 5 TB/s per singolo chip.

NVIDIA ha dunque aggiunto: “NVIDIA GH200 Grace Hopper è stata costruita per l’era del computing accelerato e dell’IA. Creata per gestire i carichi di lavoro più complessi legati all’IA generativa, la nuova piattaforma sarà disponibile in un elevato numero di configurazioni”.

L’annuncio del SIGGRAPH 2023 è stato un successo e, sul palcoscenico, Jensen Huang ha ribadito che NVIDIA si concentrerà sull’intelligenza artificiale generativa per il futuro: “Mentre stavamo reinventando la computer grafica con l’intelligenza artificiale, stavamo reinventando del tutto la GPU per l’intelligenza artificiale”, ha affermato.

NVIDIA ha concluso confermando che la disponibilità dei primi sistemi basati sulle GPU Hopper GH200 con la nuova tecnologia di memoria HBM3e avverrà entro il secondo trimestre del 2024, tabella di marcia leggermente successiva rispetto alle GPU AMD Instinct MI300X che porteranno i die HBM3 con larghezza di banda pari a circa 5 TB/s, con un massimo di 192 GB di capacità VRAM.

Fonte: NVIDIA

Ti consigliamo anche

Link copiato negli appunti