Durante l’edizione di quest’anno della GPU Technology Conference 2016 (GTC2016), NVIDIA ha portato con sé molteplici “sorprese”.
La società californiana ha presentato Tesla P100, ovvero la prima scheda basata su GPU GP100 Pascal. Si tratta di un prodotto ultra-performante, pensato soprattutto per server, supercomputer e deep learning.
La GPU GP100, realizzata con un processo costruttivo a 16 nm, utilizza 16 GB di memoria HBM2 ed offre un’ampiezza di banda, di picco, pari a 720 GB/s.
GP100 consta di 3.584 CUDA cores, 512 in più rispetto a quelli che consente il chip GM200 usato nelle migliori schede grafiche Maxwell2 come, ad esempio, la GTX 980 Ti.
La frequenza di clock cresce, in questo caso, da 948 MHz a 1328 MHz spingendosi fino a 1480 MHz in modalità turbo; un miglioramento prestazionale che giustifica gli elevati consumi della scheda (300 W) nonostante il processo costruttivo a 16 nm.
Sebbene i tecnici di NVIDIA non lo abbiano specificato, è possibile che la GPU GM100 sia addirittura un po’ limitata rispetto alle sue effettive potenzialità. La società cita infatti 3.584 CUDA cores quando, in realtà, ciascuno dei cosiddetti 60 Streaming Multiprocessor (SM) di cui è composta la scheda (64 CUDA core l’uno) si arriverebbe a 3.840.
L’architettura di un chip Pascal, così come nel caso di Maxwell, è formata da Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) e controller di memoria.
Il chip GP100 utilizza sei GPC (fino a dieci SM l’uno) e otto controller di memoria a 512 bit, per un totale di 4096 bit in totale, utilizzati per comunicare con HBM2 (vedere anche NVIDIA userà chip di memoria HBM2 nelle sue schede).
Come metro di paragone, basti pensare che la memoria HBM usata nelle schede Fiji, ad esempio, utilizza 1024 bit.
La scheda proposta da NVIDIA è un “mostro” da 5,3 TFLOPs con calcoli a doppia precisione, 10,6 TFLOPs con calcoli in virgola mobile e 21,2 TFLOPs con calcoli “mixed precision”.
Un’altra interessante caratteristica della Tesla P100 è l’utilizzo delle connessioni NVLink che permettono di scambiare dati più velocemente fra diverse GPU e fra la GPU e la memoria.
Il collegamento NVLink che può mettere in comunicazione varie schede, consente un trasferimento dati bidirezionale fino a 40 GB/s contro il singolo GB/s permesso da PCI 3.0 x1.
NVLink permette di effettuare fino a quattro collegamenti ottenendo un totale di 160 GB/s.
La Tesla P100 sarà disponibile per le società partner a partire dal prossimo giugno mentre una commercializzazione più capillare dovrebbe cominciare ad inizio 2017.