Nei giorni scorsi OpenAI ha annunciato di aver effettuato diversi account ChatGPT utilizzati per generare informazioni false, soprattutto per quanto riguarda le ormai imminenti elezioni presidenziali degli Stati Uniti. Questo tipo di intervento è la dimostrazione pratica delle politiche della startup, le cui intenzioni sono quelle di prevenire l’utilizzo improprio dei contenuti generati attraverso il proprio chatbot.
Secondo quanto sostenuto da OpenAI, dietro queste rilevazioni sono state individuate diverse campagne nel contesto statunitense, da entrambi gli schieramenti politici, atti a influenzare l’elettorato con contenuti e articoli creati appositamente con tale scopo. La startup ha individuato anche un’operazione più complessa e strutturata, che veniva utilizzata per influenzare l’opinione degli utenti su vari argomenti. Questa è stata battezzata Storm-203.
Questa generava notizie false su vari argomenti, poi condivise su social network e siti Web. Nonostante ciò, secondo i dati forniti da OpenAI, i post creati da Storm-203 sono da considerarsi di scarso impatto, visto che sono stati letti e condivisi da pochissimi utenti.
OpenAI e il caso Storm-203: i chatbot sono potenzialmente armi per la disinformazione
Secondo il rapporto, Storm-203 non ha lavorato solo nel contesto delle già citate elezioni USA ma anche in altri ambiti delicati come il conflitto di Gaza o la situazione politica Venezuelana.
OpenAI ha sottolineato come, per rendere meno evidente l’intenzione di influenzare l’opinione pubblica, le fake news di natura politica venivano alternate a notizie riguardanti moda e bellezza. Per quanto riguarda gli account sui social network che diffondevano questi contenuti, secondo quanto riportato da Axios, si tratta di una campagna di disinformazione iraniana avviata nel 2021. Allo stato attuale, tutti i profili collegati a Storm-203 sono comunque stati disattivati.
Al di là del singolo caso, ChatGPT e altri chatbot simili si prestano molto facilmente alla realizzazione di contenuti fuorvianti. Nonostante l’impegno di OpenAI, dunque, le compagnie impegnate in questo settore devono mantenere alta l’attenzione per evitare casi spiacevoli.