Ormai è cosa nota: le elaborazioni che poggiano sull’intelligenza artificiale sono largamente energivore. A suo tempo Rene Haas, numero uno di ARM, ha fatto un po’ di conti sui consumi energetici dell’IA. I dati emersi sono tutt’altro che incoraggianti e a questo punto è sempre più cruciale adottare soluzioni che consentano di promuovere il concetto di sostenibilità.
Anche perché, stando alle stime dell’Agenzia Internazionale dell’Energia, il consumo energetico globale nel caso dell’IA potrebbe raddoppiare dai 460 terawattora (TWh) del 2022 a oltre 1.000 TWh nel 2026, un valore paragonabile al consumo elettrico di una nazione come il Giappone.
Un team di ricercatori dell’Università del Minnesota ha sviluppato un nuovo tipo di dispositivo di memoria che promette di ridurre il consumo energetico delle intelligenze artificiali di almeno 1.000 volte. Battezzato computational random-access memory (CRAM), questa nuova generazione di memorie volatili è in grado di eseguire alcune tipologie di elaborazioni direttamente all’interno delle sue celle, eliminando la necessità di trasferire i dati tra le diverse parti di un sistema informatico.
L’innovazione della CRAM
Nel computing tradizionale, i dati vengono costantemente spostati tra il processore (dove sono elaborati) e la memoria (in cui risultano immagazzinati): in un altro articolo abbiamo approfondito le caratteristiche e il funzionamento della memoria RAM. Questo processo è particolarmente dispendioso in termini di energia nelle applicazioni di IA, che coinvolgono calcoli complessi e grandi quantità di dati.
I ricercatori accademici del Minnesota hanno dimostrato, utilizzando un approccio scientifico, che la CRAM può eseguire compiti chiave dell’IA, come l’addizione scalare e la moltiplicazione di matrici, in 434 nanosecondi usando appena 0,47 microjoule di energia. Questo valore rappresenta un consumo energetico circa 2.500 volte inferiore rispetto ai sistemi di memoria convenzionali che separano i componenti logici e la memoria.
Il progetto, che ha richiesto vent’anni di lavoro, è stato finanziato dalla Defense Advanced Research Projects Agency (DARPA) USA, dal National Institute of Standards and Technology, dalla National Science Foundation e dall’azienda tecnologica Cisco.
Una scelta “pazza” che potrebbe rivelarsi “a prova di futuro”
Jian-Ping Wang, responsabile della ricerca e docente presso il dipartimento di ingegneria elettronica e informatica dell’Università del Minnesota, sottolinea che la proposta di utilizzare celle di memoria per il calcolo era inizialmente considerata un'”idea folle“. Invece, avvalendosi di un nutrito gruppo di universitari e di un team interdisciplinare di docenti specializzati in fisica, scienza dei materiali, informatica, ingegneria, modellazione e benchmarking, creazione di hardware, Wang e “i suoi” hanno potuto dimostrare che la tecnologia CRAM è qualcosa di assolutamente fattibile e che anzi è pronta per debuttare su larga scala.
Le memorie RAM più efficienti utilizzano tipicamente quattro o cinque transistor per immagazzinare un singolo bit di dati (1 o 0). La CRAM offre una serie di abilità aggiuntive grazie alla presenza di “giunzioni tunnel magnetiche” (MTJ). Una MTJ sfrutta lo spin degli elettroni per immagazzinare i dati, invece di fare affidamento sulle cariche elettriche come la memoria tradizionale. Questo la rende più veloce, più efficiente dal punto di vista energetico e in grado di resistere meglio all’usura rispetto ai chip di memoria convenzionali.
La CRAM è anche adattabile a diversi algoritmi di IA, il che la rende una soluzione flessibile ed efficiente dal punto di vista energetico per le elaborazioni proprie delle app che fanno affidamento sull’intelligenza artificiale.
Ora l’attenzione si sposta sull’industria: il team di ricerca ritiene infatti che ci sia ampio margine per portare CRAM, sin da subito, su ampia scala. A detta di Wang, le aziende di semiconduttori dovrebbero dimostrare vivo interesse per lo sviluppo della tecnologia e l’integrazione nei prodotti commerciali.
Credit immagine in apertura: Copilot Designer