Gli esperti del MIT (Massachusetts Institute of Technology) hanno estratto dal cilindro una nuova “invenzione” destinata, in ottica futura, a rivoluzionare il funzionamento delle applicazioni per l’intelligenza artificiale.
Presso i laboratori del MIT è stato infatti messo a punto un nuovo chip che riduce del 95% i consumi energetici durante la gestione di app per l’intelligenza artificiale ottimizzando il loro impiego direttamente sui dispositivi mobili.
Presto, quindi, non sarà più necessario spostare le elaborazioni in-cloud ma, grazie alla potenza di calcolo dei moderni SoC che equipaggiano smartphone e altri device mobili, si potranno rendere i dispositivi in grado di compiere iter decisionali complessi senza appoggiarsi a risorse esterne.
Le reti neurali sono generalmente piuttosto ampie e necessitano di tanta energia, requisito che mal si adatta all’impiego dei dispositivi mobili. Ed è per questo che la maggior parte delle app per l’intelligenza artificiale oggi disponibili su smartphone si limitano ad effettuare il semplice upload di dati sul cloud per poi attenderne l’elaborazione.
Il chip special-purpose messo a punto al MIT incrementa la velocità di elaborazione di sette volte rispetto ai predecessori riducendo al 95% i consumi energetici.
Gli ingegneri del MIT spiegano che ci sono riusciti introducendo un approccio innovativo chiamato dot-product che rimuove completamente il trasferimento di dati continuo tra le varie parti del chip ed eseguendo tutti i calcoli in memoria.
Nel chip proposto dagli studiosi del MIT si torna in qualche modo a un approccio analogico convertendo l’input proveniente da ciascun nodo che compone la rete neurale in tensioni elettriche moltiplicandole poi per i rispettivi “pesi”.
Il concetto di “peso” consente di approssimare la valenza di ciascuna interconnessione cercando di imitare i processi che avvengono a livello cerebrale.
Lo stesso Dario Gil, vice presidente della divisione che in IBM si occupa di intelligenza artificiale, ha apprezzato i passi in avanti compiuti dal MIT descrivendoli come una dimostrazione reale – peraltro estremamente promettente – di come sia possibile effettuare calcoli di tipo analogico usando memorie SRAM.
Il chip del MIT consentirà di realizzare applicazioni che possono funzionare completamente in locale e che sfruttano reti neurali convoluzionali chiamate a rispondere ad esigenze ben specifiche come la classificazione di immagini, video e l’interpretazione della realtà.
Del chip progettato dal MIT potranno quindi beneficiare in primis i futuri nuovi dispositivi per l’Internet delle Cose (IoT).