Di deepfake si parla da tempo ma negli ultimi periodi stanno comparendo in rete molteplici video che ritraggono soggetti più o meno famosi in atteggiamenti sconvenienti oppure che pronunciano frasi fuori luogo. Si tratta di video fasulli che vengono generati sovrapponendo ad arte immagini della “vittima” a sequenze filmate girate a parte. E quando, come in questi giorni, è anche la TV generalista a proporre contenuti simili significa che la tecnologia per produrre simili video è davvero alla portata di (quasi) tutti.
La tecnica deepfake permette di arrivare a creare video che molti stentano a riconoscere come fasulli. Si fa infatti ricorso a una tecnica di apprendimento automatico (machine learning), conosciuta come rete antagonista generativa, che sfrutta l’intelligenza artificiale per ricreare in maniera artificiosa il volto e la voce di una persona, così come se fosse ripresa da una telecamera.
Già a inizio 2018 avevamo parlato di questo tema (vedere FakeApp, cos’è e come funziona in breve l’app per creare video fasulli) e di recente alcuni ingegneri Samsung hanno mostrato come sia possibile realizzare un video deepfake usando pochissime immagini statiche della persona che si vuole inserire nella falsa sequenza filmata: Creare video di una persona a partire da poche foto: Samsung spiega com’è possibile.
Tant’è vero che, a scopo dimostrativo, si è ridato virtualmente vita ad Albert Einstein, Salvador Dalì, Marilyn Monroe, Fëdor Dostoevskij e, addirittura, alla Gioconda ritratta da Leonardo da Vinci.
L’intelligenza artificiale deve “imparare” a svolgere il compito che gli è stato assegnato: il processo di apprendimento automatico aiuta a raggiungere l’obiettivo per approssimazioni successive. Serve quindi un “video di destinazione” che costituisce la base per il deepfake e due dataset relativi ai volti della persona da sostituire e quella da inserire nel video. In questo modo i movimenti della bocca e della testa risulteranno precisi e sembreranno più reali.
I deepfake più convincenti sono infatti quelli dei politici perché tendono a rimanere fermi su un podio sotto una luce costante.
Avendo a disposizione dataset sufficientemente ampi si otterranno risultati strabilianti: l’intelligenza artificiale, usando modelli ben approntati, consentirà di produrre un video deepfake difficile da riconoscere come tale.
Oltre quindi alle fake news (Fake news: cosa sono, come riconoscerle e perché sono diventate un problema) in futuro sarà sempre più complicato riconoscere un video falso.
Un’applicazione come FakeApp, nata a inizio 2018 e citata in apertura, utilizza una rete neurale artificiale, una GPU e da tre a quattro gigabyte di spazio di archiviazione per generare il video falso. Successivamente sono nati altri software ancora più abili e performanti come DeepFaceLab (vedere la pagina ufficiale su GitHub) e Face Swap. Un video realizzato dando in pasto alle varie app dataset importanti risulterà assolutamente realistico.
Immagini e video fasulli esistono dalla notte dei tempi. La novità è che i deepfake dimostrano quanto sia diventato molto più semplice generare video fake di qualità da parte di chiunque.
Ian Goodfellow, un ingegnere Google che lavora sulle soluzioni di intelligenza artificiale, evidenzia quanto la concezione di video come “prova dei fatti” sia ormai destinata ad essere definitivamente superata.
Alex Champandard, esperto di intelligenza artificiale, fa presente che sia un’attenta analisi dei video che appositi programmi informatici possono aiutare a smascherare i falsi. Proprio oggi Google ha pubblicato un database contenente circa 3.000 deepfake (vedere questo post) con il preciso obiettivo di aiutare nello sviluppo di soluzioni software utili per il riconoscimento automatico dei video farlocchi.
Ma il problema, secondo Champandard, non è propriamente tecnico. In futuro, si dovrà riflettere ancora di più pensando a quali sono le testate e gli strumenti di informazione dei quali ci si fida maggiormente. “Si tratterà di stabilire un rapporto di fiducia con giornalisti, case editrici, editori o altre fonti di informazione“.