Pochi si ricordano che, nell’ormai lontano 2019, OpenAI ha rifiutato categoricamente di fornire dati sullo sviluppo di GPT-2, in quanto considerato uno strumento troppo pericoloso. Qualcosa di molto simile è successo nella giornata di ieri, quando Microsoft ha rilasciano una dichiarazione non troppo diversa rispetto al suo VALL-E 2.
Stiamo parlando di un’Intelligenza Artificiale che opera nell’ambito della sintesi vocale zero-shot. Ciò si traduce in un sistema in grado di ricreare un parlato iperrealistico, con risultati sorprendenti anche avendo accesso a solo pochi secondi di audio. VALL-E 2 è in grado, a detta dei suoi sviluppatori, di gestire anche frasi difficili da pronunciare, il tutto con una naturalezza impressionante.
Inutile affermare come uno strumento di questo tipo, nelle mani sbagliate, potrebbe aiutare cybercriminali a realizzare dei deepfake estremamente convincenti.
VALL-E 2: rischi e benefici dell’IA applicata alla riproduzione della voce
Eppure VALL-E 2 può essere utilizzato anche in contesti nobili. I benefici di uno strumento di questo tipo, per esempio, può essere ben percepibile con persone affette da afasia o SLA. Queste potrebbero tornare a parlare, anche se attraverso un computer. Le applicazioni potrebbero poi essere utili in ambito come giornalismo, traduzioni e semplice intrattenimento.
Nonostante ciò, per Microsoft questa tecnologia è ancora troppo pericolosa e sarà legata esclusivamente ad ambienti di ricerca a causa degli enormi rischi. D’altro canto la compagnia di Redmond non è l’unica che sta lavorando su strumenti di questo tipo. Google con Chirp, ElevenLabs con Iconic Voices e Meta con Voicebox si stanno già muovendo in questa direzione.
Se per la generazione di immagini IA è possibile applicare delle filigrane, con la voce risulta tutto molto più difficile e, in tal senso, esistono già alcuni casi di truffa certificati. Per i colossi tecnologici, dunque, ora la vera sfida è implementare la nuova tecnologia riducendo quanto più possibile tutti i potenziali rischi a essa legati.