La maggior parte degli strumenti clonazione vocale AI a rischio abuso

Clonazione vocale AI, secondo Consumer Report la maggior parte di strumenti non propone sistemi di protezione: ecco l'inquietante scoperta.
La maggior parte degli strumenti clonazione vocale AI a rischio abuso

Le tecnologie per la clonazione vocale basate sull’Intelligenza Artificiale hanno fatto enormi passi avanti nel corso degli ultimi anni.

Se ciò ha significato un’evoluzione positiva in diversi contesti, come nel marketing o nell’ambito degli audiolibri, vi sono anche alcuni effetti collaterali da non sottovalutare. Le possibili applicazioni dannose dell’AI, come frodi e attacchi informatici, rappresentano una minaccia considerevole.

Secondo la rivista americana Consumer Reports, questi pericoli sono molto più concreti del previsto. Stando a una ricerca della stessa, i principali prodotti del settore non hanno meccanismi di difesa adeguati per evitare potenziali abusi. In molti casi, le uniche procedure adottate sono un semplice check che rende consapevole l’utente rispetto agli eventuali rischi.

A distinguersi dalla concorrenza sono state due compagnie, ovvero Descript e Resemble AI, che hanno dimostrato precauzioni maggiori.

Clonazione vocale AI: ecco come rendere questa tecnologia più sicura

Descript, per esempio, chiede all’utente di leggere e registrare una dichiarazione di consenso, utilizzando poi quell’audio per generare il clone. Resemble AI adotta invece un approccio diverso, assicurandosi che il contenuto clonato si basi su un audio registrato in tempo reale. Nessuno dei due metodi è infallibile, ma rappresenta comunque un tentativo concreto di evitare utilizzi impropri.

Non solo: Consumer Report ha anche scoperto che diversi altri strumenti avevano un livello di accessibilità molto basso, per cui basta un semplice indirizzo e-mail per creare un account e creare delle voci falsificate. Il tutto risulta inquietante, considerando che la clonazione vocale è stata già utilizzata in diverse occasioni per scopi illeciti, spaziando dalle frodi alle fake news per influenzare eventi elettorali.

Come è possibile evitare casi del genere? Secondo Consumer Report esistono diverse possibili precauzioni. Per aprire un account, per esempio, potrebbe essere utile chiedere una carta di credito o documenti d’identità all’utente. In altri casi, può essere l’utile l’adozione di una filigrana audio per evitare la creazione di voci fittizie.

Di certo, la clonazione vocale tramite AI sarà, per i prossimi mesi e anni, il principale campo di battaglia tra cybercriminali ed esperti di sicurezza informatica.

Ti consigliamo anche

Link copiato negli appunti