Pochi giorni fa si è parlato degli avatar di TikTok generati con l’intelligenza artificiale e pensati per consentire ai creator di sbizzarrirsi in termini di creatività, soprattutto nell’ambito di campagne pubblicitarie. Qualcosa però non è andato nel verso giusto, perché gli utenti hanno avuto la possibilità di utilizzare una versione senza filtri di questo tool AI.
Avatar AI su TikTok: debutto da incubo
Lo strumento Symphony Digital Avatars permette di creare avatar digitali basati però su persone reali. Oltre a quelli custom, a disposizione degli inserzionisti sono anche degli avatar “stock”, ovvero dei veri e propri attori che sono stati ingaggiati per questo compito. Anche il doppiaggio è basato sull’intelligenza artificiale, e permette di inserire uno prompt che verrà poi “recitato” dagli avatar. Il tutto dovrebbe avvenire nel rispetto delle linee guida del social network, che non prevedono la diffusione di fake news, messaggi di odio e così via.
La CNN ha però scoperto che fino a poco fa è stato possibile utilizzare una versione senza filtri del tool relativo agli avatar, con tutte le conseguenze del caso e, cosa non di poco conto, da tutti gli utenti con un semplice account personale. Ad esempio, è stato possibile far leggere agli avatar AI stock degli estratti del Mein Kampf di Hitler.
TikTok placed zero content restrictions on the app. Any words we put in created a video with a peppy “Stock AI” Avatar reciting them. That included:
-The 14 words
-An excerpt from Mein Kampf
-Osama Bin Laden’s Letter to America
-A video telling people to drink bleach from “a… pic.twitter.com/I2QbqbDFnw— Jon Sarlin (@jonsarlin) June 21, 2024
Dopo l’accaduto, Laura Perez, portavoce di TikTok, è stata raggiunta dalla redazione di The Verge per un commento sul report della CNN. Si è trattato di un errore tecnico, ha dichiarato la Perez, che è stato però già risolto.
Eppure, nonostante l’allarme sia rientrato, ci si chiede quanto questi strumenti basati sull’intelligenza artificiale siano sicuri e quanto siano affidabili certe aziende. “Errori tecnici”, sviste involontarie e vulnerabilità potrebbero aggiungere benzina al motore della disinformazione e a pagarne le conseguenze sarebbero gli ingannati utenti.