Evitare una truffa è diventato sempre più difficile, sebbene gli utenti ormai siano abituati a fronteggiarne diverse. Durante gli ultimi tempi il pericolo maggiore sta arrivando direttamente dallo smartphone in quanto i truffatori riuscirebbero ad imitare la voce dei familiari delle vittime, specialmente dei figli. Si tratta del cosiddetto deepfake, un tipo di truffa che utilizza l’intelligenza artificiale e che è in grado di scalfire le difese di chiunque
L’inganno che colpisce il cuore
Immaginate di ricevere una chiamata da vostra figlia, in lacrime, che vi dice di essere stata rapita. Vi chiede aiuto, supplica di pagare un riscatto. La voce è la sua, il tono è quello che conoscete. In quel momento, ogni istinto vi dice che dovete agire. Ma c’è un dettaglio agghiacciante: non è lei. In questo caso è l’AI a creare una voce che viene generata sulla base di un messaggio vocale di WhatsApp o magari da un qualsiasi video beccato su Instagram.
I deepfake sono truffe difficili da identificare
Come racconta Evan Dornbush, ex esperto della NSA, oggi creare una truffa vocale è veloce, economico e spaventosamente realistico. Basta un breve campione audio per addestrare un modello AI in grado di imitare con precisione la voce di chiunque. E a differenza delle vecchie truffe telefoniche, queste non sembrano fake: sembrano vere. Sembrano la voce di vostro figlio, vostra madre, vostro fratello.
Purtroppo funziona tutto: le truffe di questo tipo ormai sono ricorrenti e potrebbero capitare veramente a chiunque.
Come difendersi davvero
L’FBI ha già lanciato un avviso ufficiale su queste truffe vocali, suggerendo un metodo tanto semplice quanto efficace: creare una parola in codice da usare solo in caso di emergenza. Un termine segreto, conosciuto solo da voi e dalla persona amata, da utilizzare per verificare l’identità di chi chiama. Potrebbe essere un luogo dell’infanzia, il nome di un animale domestico, una frase inventata: qualcosa di riconoscibile anche nel panico.
Non tutti però vedono di buon occhio questa idea. Alcuni temono che, in un momento di stress, la persona reale possa dimenticare la parola in codice, facendo rischiare di ignorare una vera richiesta d’aiuto. È un timore comprensibile, ma meglio un sistema semplice che nulla. In alternativa, fai attenzione ai segnali: voci metalliche, frasi ripetute, mancanza di contesto. Spesso sono indizi che si tratta di un falso.
Lo smartphone potrebbe aiutare gli utenti: Honor ne è l’esempio
Alcuni produttori stanno già sperimentando soluzioni per proteggere gli utenti. Honor, ad esempio, ha inserito nel suo Magic 7 Pro una funzione di rilevamento automatico dei deepfake: l’intelligenza artificiale del telefono analizza audio e video sospetti e avvisa l’utente se rileva contenuti manipolati o artificiali. Un piccolo passo verso una difesa più solida, che però non può sostituire la consapevolezza personale.
In definitiva, parlare oggi con i propri cari di questo rischio è un gesto di amore e prevenzione. Meglio prendersi cinque minuti per inventarsi un codice di sicurezza, piuttosto che ritrovarsi, un giorno, a rispondere a una voce che sembra familiare… ma non lo è.