Era lo scorso luglio quando vi parlammo di Cerebras Wafer Scale Engine, chip in grado di velocizzare significativamente le elaborazioni di intelligenza artificiale: Il processore più grande della storia: 400.000 core, realizzato per l’intelligenza artificiale.
Accanto ai 400.000 core, il chip utilizza 1.200 miliardi di transistor su una superficie in silicio di circa 460 centimetri quadrati oltre a 18 GB di memoria SRAM. Come caratteristiche aggiuntive, il chip “succhia” 15kW di potenza e permette il trasferimento dati al ritmo di 9 PB/s.

Già soltanto sviluppare il chip si è rivelato un lavoro estremamente gravoso ma fornire la giusta alimentazione e implementare un adeguato sistema di dissipazione del calore con l’obiettivo di creare un sistema di dimensioni “accettabili” è stato per certi versi ancora più complicato.
I tecnici di Cerebras hanno appena annunciato di aver portato a termine l’impresa e oggi, in occasione dell’evento Supercomputing 2019, è stato presentato il nuovo sistema CS-1 basato su Cerebras Wafer Scale Engine.
L’Argonne National Laboratory, uno dei più grandi e antichi laboratori nazionali di ricerca degli Stati Uniti, ha già adottato il sistema progettato e realizzato da Cerebras che ne ha descritto nel dettaglio il funzionamento.
Cerebras CS-1 occupa soltanto l’equivalente di 15 unità rack, circa 66 centimetri. Considerando le prestazioni della macchina, si tratta di un’unità estremamente compatta: basti pensare che per eguagliare le prestazioni di CS-1, ci vorrebbe un cluster da 1.000 GPU con un consumo pari a mezzo megawatt. Un singolo chip Cerebras ha 78 volte più core, 3.000 volte più memoria e 10.000 volte più larghezza di banda di una singola GPU.

Di per se stesso estremamente scalabile, il sistema presentato da Cerebras può essere utilizzato accanto ai tradizionali supercomputer, per le elaborazioni di intelligenza artificiale. Le dodici porte 100-Gigabit Ethernet di cui è dotato CS-1 permettono al sistema di dialogare e scambiare dati con i computer chiamati a svolgere altri tipi di calcoli oppure con altri cluster Cerebras.
Il chip è realizzato con il processo costruttivo a 16 nm di TSMC: Cerebras lo ha scelto perché è ormai molto maturo. Pur non specificando la frequenza di clock prescelta, l’azienda si è limitata a dichiarare di aver scelto frequenze nella forbice tra 2,5 e 3 GHz.
Sistemi come quello presentato da Cerebras permetteranno di compiere progressi fenomenali nel settore della ricerca, in ogni campo delle scienze. I responsabili dell’Argonne National Laboratory hanno già fatto presente che utilizzeranno CS-1 per la ricerca sul cancro e per una serie di studi scientifici, a partire da quelli sui buchi neri.
Cerebras proone un ecosistema software piuttosto completo e versatile: il sistema può essere programmato usando codice PyTorch e TensorFlow, peraltro facilmente modificabile con gli strumenti e le API fornite. Diversamente rispetto ai produttori di GPU, Cerebras mette a disposizione gli strumenti per interagire con CS-1 a bassissimo livello.