Quando si pensa a una moderna CPU, i dati devono continuamente fluire il sistema di elaborazione centrale, le varie cache e la batteria di moduli di memoria RAM esterni. L’informatica neuromorfica contribuirà a rivoluzionare le modalità con cui le informazioni vengono memorizzate ed elaborate.
Il funzionamento di tutti i sistemi in cui memoria e capacità di elaborazione sono separati, è limitato dalla larghezza di banda dei canali di comunicazione che collegano i vari elementi (bus). Il problema è noto come collo di bottiglia di von Neumann.
Cos’è il collo di bottiglia nell’architettura di von Neumann
L’architettura di von Neumann è il modello di base utilizzato nella progettazione dei computer moderni. È chiamata così in onore di John von Neumann, matematico e informatico che ha contribuito significativamente allo sviluppo di questa architettura. Essa comprende quattro componenti fondamentali: unità di elaborazione centrale (CPU), memoria, input/output (I/O) e unità di controllo. I dati devono essere trasferiti dalla memoria alla CPU e viceversa attraverso un unico bus, cosa che può causare un rallentamento nella velocità di elaborazione dei dati.
Poiché la velocità di elaborazione della CPU è spesso molto più elevata rispetto alla velocità di accesso alla memoria, si può verificare uno spreco di tempo con la CPU che attende la risposta della memoria.
Questo è il motivo per cui tutte le aziende di progettazione di semiconduttori (Intel a AMD, NVidia e molte altre) progettano hardware dedicato che accelera questo scambio di informazioni: si pensi ad esempio a Infinity Fabric e NVLink.
Il problema è che lo scambio di informazioni tra i componenti del sistema ha un costo energetico che sta attualmente limitando i traguardi ai quali è oggi possibile ambire.
L’informatica neuromorfica: cos’è e come cambierà il funzionamento dei dispositivi
I ricercatori dell’Università di Cambridge hanno presentato una tecnologia che apre le porte al concetto di informatica neuromorfica, capace in futuro di avvicinarsi alle capacità cognitive del cervello umano. L’obiettivo è creare sistemi che siano più efficienti e potenti nell’elaborazione delle informazioni, simili alla capacità di apprendimento, riconoscimento di pattern, adattamento e flessibilità che tutti noi adoperiamo ogni giorno. Non per nulla, nell’articolo citato, parliamo di organoidi cerebrali, nuova frontiera che combina informatica e biologia.
La soluzione descritta dagli accademici è chiamata resistive switching memory: essa combina le funzioni di un supporto di memorizzazione con quelle di un supporto di elaborazione. Un comportamento, come abbiamo visto in precedenza, molto lontano rispetto alla tecnologia dei semiconduttori attuale: i requisiti in termini di progettazione e disposizione dei transistor e dei materiali sono ampiamente diverse per le celle di memoria e per le celle di elaborazione. Non c’è modo di unire i due mondi, almeno non con le tecnologie al momento in uso.
Mentre la memoria convenzionale è capace di gestire solo due stati (uno e zero; ne parliamo nell’articolo sul codice binario…), un dispositivo resistive switching memory consente di prendere in considerazione una gamma di stati differenti. Ciò consente di usare un ventaglio più ampio di tensioni e, di conseguenza, codificare più informazioni.
Dispositivi a sinapsi: più veloci e densità dei dati fino a 100 volte superiore
I dispositivi messi a punto dal team di ricercatori della Cambridge University sono battezzati synapse devices o dispositivi a sinapsi perché progettati o ispirati dalle sinapsi biologiche presenti nel cervello e nel sistema nervoso. Le sinapsi sono le connessioni tra i neuroni che permettono loro di comunicare e trasmettere segnali elettrici e chimici per elaborare e trasmettere informazioni a livello cerebrale.
Per la realizzazione dei primi prototipi di dispositivi a sinapsi, gli studiosi hanno individuato due materiali che concorrono a manifestare il comportamento desiderato: del bario (Ba) posizionato su sottili film di ossido di afnio (HfO2) consente di ottimizzare il flusso degli elettroni quando viene applicata una differenza di potenziale. In questo modo, si può non soltanto massimizzare le prestazioni ma anche aumentare significativamente la densità dei dati, anche di 100 volte rispetto agli standard odierni.
Con la densità della memoria RAM che raddoppia ogni quattro anni, come sottolineato da JEDEC, i produttori impiegherebbero decenni per raggiungere lo stesso livello di densità che la tecnologia presentata dagli esperti della Cambridge ambisce a introdurre in futuro.
I dispositivi sinaptici descritti dai ricercatori, infatti, possono accedere – come spiegato in precedenza – alla gestione di molti più livelli di tensione rispetto ad esempio anche alla migliore tecnologia NAND adoperata nelle memorie SSD dei giorni nostri. A chi non piacerebbe avere tra le mani una chiavetta “USB 7” da 10 TB o addirittura 100 TB?
Ovviamente, molto del lavoro è ancora sulla carta. Tuttavia, sembra che il modus operandi presentato dagli studiosi della Cambridge sia convincente. Inoltre, l’industria dei semiconduttori già utilizza l’ossido di afnio, quindi non si tratterebbe di una novità assoluta anche in termini di apparecchiature.