Tra i protagonisti della conferenza ISC High Performance di quest’anno c’è sicuramente Intel. In Germania, e più precisamente nella città di Amburgo, il colosso statunitense ha mostrato i muscoli presentando e analizzando nel dettaglio gli ultimi straordinari passi in avanti fatti in ambito HPC e AI. Tra i vari annunci, anche quello di utilizzare il supercomputer Aurora per sviluppare modelli di intelligenza artificiale generativa (anche) in ambito scientifico.
Jeff McVeigh, tra gli attuali pilastri proprio di Intel, ha così condiviso il suo entusiasmo per gli obiettivi raggiunti e i piani per il futuro:
Intel propone prodotti che possono aiutare gli utenti a fare scoperte rivoluzionarie in tempi più rapidi. Il nostro portfolio di prodotti (che comprende Intel XeonCPU Max Series, Intel Data Center GPU Max Series, 4th Generation Intel Xeon Scalable Processors e Habana Gaudi2) sta superando la concorrenza su più fronti, offrendo vantaggi in termini di consumi energetici e costi, rendendo l’AI più accessibile e offrendo maggiore scelta, apertura e flessibilità.
Intel alla ISC 2023 di Amburgo: risultati raggiunti e novità
A proposito di prestazioni, è lo stesso McVeigh a mostrare i più recenti risultati della gamma hardware, proponendo anche interessanti paragoni con la concorrenza.
- I processori Intel Data Center GPU Max Series superano la scheda Nvidia H100 PCIe del 30% in diversi ambiti.
- La serie Xeon Max (con processori con architettura x86) mostra un miglioramento del 65% rispetto al chip Genoa di AMD nel benchmark HPCG (High Performance Conjugate Gradients), utilizzando addirittura meno potenza.
- I processori Intel Xeon Scalable di quarta generazione – i più utilizzati in ambito HPC – offrono il 50% di velocità in più rispetto agli AMD Milan, mentre i nuovi cluster HPC Xeon di quarta generazione forniscono prestazioni otto volte superiori rispetto alla generazione precedente.
- Il Gaudi2, il processore per il deep learning, vanta prestazioni 2.4 volte più veloci rispetto a Nvidia A100.
Nel corso della conferenza tedesca, Intel ha presentato anche le CPU next-gen per soddisfare le richieste di una più ampia larghezza di banda della memoria. Oltre ad un nuovo tipo di DIMM (Multiplexer Combined Ranks), Intel ha presentato un subsystem ottimizzato per l’intelligenza artificiale e pensato per accelerare l’allenamento del deep learning, e Falcon Shores, la GPU Max Series di nuova generazione basata su una architettura modulare. Questa supporta data types per l’HPC e l’AI, abilita fino a 288GB di memoria HBM3, supporta il modello di programmazione CXL e dispone di un’interfaccia di programmazione GPU unificata tramite oneAPI.
Per quanto riguarda la scienza, Argonne National Laboratory ha annunciato che – in collaborazione con Intel e HPE – creerà una serie di modelli di AI generativa da sfruttare nell’ambito della ricerca scientifica:
Il progetto mira a sfruttare tutto il potenziale del supercomputer Aurora per produrre una risorsa che possa essere utilizzata per la scienza presso i laboratori del Dipartimento di Energia e in collaborazione con altri.
– Rick Stevens, Associate Laboratory Director di Argonne
Infine, a proposito di oneAPI, gli ultimi tool di Intel forniscono un incremento della velocità per le applicazioni HPC con l’offload della GPU OpenMP, estendono il supporto per OpenMP e Fortran e garantiscono un boost per l’intelligenza artificiale e il deep learning attraverso framework ottimizzati, tra cui TensorFlow e PyTorch.