Grazie al lavoro dei ricercatori dell’UC Berkeley e dell’UC San Francisco è stato possibile sfruttare le potenzialità dell’Intelligenza Artificiale generativa per far tornare a parlare una donna paralizzata.
Nello specifico, l’AI ha aiutato a ridurre il lasso di tempo tra il tentativo di parlare della persona e il momento in cui l’apposito dispositivo riproduce il suono. La donna, che si chiama Ann, nel 2005 ha subito un ictus del tronco encefalico quando aveva solo 30 anni.
Grazie alle nuove tecnologie è stato possibile apportare netti miglioramenti alla neuroprotesi, rendendo possibile alla donna esprimersi attraverso un modello addestrato su registrazioni audio di Ann, risalenti a prima dell’ictus.
Come l’AI può rendere più facile la comunicazione di una donna paralizzata
Secondo Cheol Jun Cho, studente di dottorato in ingegneria elettrica e informatica dell’UC Berkeley e coautore dello studio, questo è un chiaro esempio di come l’AI generativa possa essere usata con efficacia in ambito medico e scientifico. Per l’esperto, i progressi tecnologici previsti per i prossimi 10-20 anni sono stati coperti in soli tre proprio grazie all’ausilio dell’AI.
Nonostante le neuroprotesi non siano di certo una novità, questi strumenti devono comunque affrontare un problema comune, ovvero la latenza. Stiamo parlando del ritardo temporale tra l’input della persona e il momento in cui viene generato il suono.
Per Cho, nel caso di Ann, la stessa donna paralizzata doveva attendere che una frase venisse recepita dall’impianto e tradotta prima di iniziare un’altra, il tutto con una lunga attesa ogni volta che intendeva parlare. L’AI, di fatto, ha permesso alla stessa di comunicare praticamente in tempo reale, cosa prima impossibile.
L’innovativa protesi include una serie di elettrodi collocati sulla superficie del suo cervello e collegati tramite un cavo a una serie di computer. Questo sistema è in grado di decodificare i segnali di controllo che il cervello di Ann invia ai muscoli che controllano la parola. Dopo che Ann ha scelto le parole che vorrebbe pronunciare, l’AI legge e traduce quei segnali dalla corteccia motoria e li trasforma in audio.