Il proliferare dell’Intelligenza Artificiale generativa ha portato enormi vantaggi, così come grandi pericoli. Online si stanno diffondendo con sempre maggiore insistenza immagini esplicite create con l’IA che riprendono le fattezze di ignare vittime.
I deepfake espliciti, soprattutto nel contesto del revenge porn, rappresentano un problema così concreto da aver convinto Microsoft a creare uno strumento in grado di rimuovere tali contenuti da Bing.
L’iniziativa della compagnia è stata accompagnata dall’annuncio di una collaborazione con StopNCII, un’organizzazione che tutela le vittime di revenge porn attraverso una sorta di “impronta digitale” sulle immagini. Una volta che le piattaforme individuano questa filigrana, le nascondono in quanto identificate come materiale privato.
Deepfake e revenge porn: un trend preoccupante e le contromisure di Microsoft
A rendere particolarmente efficace l’operato di StopNCII è il numero, in costante crescita, di piattaforme che stanno aderendo all’iniziativa. Tra le stesse figurano, oltre a Microsoft, anche Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub e OnlyFans.
Riguardo la nuova partnership, Microsoft ha affermato sul blog ufficiale come tale iniziativa ha fatto emergere 268.000 immagini esplicite durante una prima fase di test, avvenuta a fine agosto. Nonostante l’azienda di Redmond offrisse già uno strumento simile, questo si basava sulle segnalazioni dirette. Visti i numeri in preoccupante crescita, questo non si era rivelato efficace.
Tra i nomi citati in precedenza non figura Google che, almeno al momento, non aderisce al progetto. Ciò risulta preoccupante visto che, il motore di ricerca, rispetto a Bing ha un numero di ricerche ancora più elevato. Proprio per questo motivo, la compagnia di Mountain View ha ricevuto aspre critiche soprattutto da alcuni ex dipendenti.
Per avere un’idea ancora più concreta del fenomeno basti pensare che, a partire del 2020 secondo Wired, gli utenti di Google della Corea del Sud hanno segnalato 170.000 link sul motore di ricerca e su YouTube che portavano gli utenti su contenuti sessuali diffusi online non volontariamente.