Il chatbot costruito da OpenAI è al centro di interminabili discussioni da settimane. La sua abilità nell’offrire risposte sensate, pertinenti e articolate, spesso anche piuttosto complesse, anche in lingua italiana, è sotto gli occhi di tutti. Tanto che in molti si sono spinti a descrivere ChatGPT come una potenziale minaccia per il business di Google. In prospettiva ciò potrebbe anche diventare possibile perché già oggi ChatGPT compone risposte – in tanti casi sufficientemente esaustive – che dispensano gli utenti dal dover effettuare ricerche sul Web e unire le informazioni provenienti da più pagine.
Essendo uno strumento basato su un modello precedentemente generato utilizzando una rete neurale, ChatGPT – seppur con alcune imperfezioni – permette di simulare un colloquio sostenuto con una persona in carne ed ossa. ChatGPT, tuttavia, dichiara di non essere in grado di recuperare informazioni da Internet, almeno non in tempo reale. ChatGPT non è un ecosistema come Google quindi non può ad esempio conoscere temi di tendenza, le notizie più popolari, gli interessi degli utenti e così via. In questo senso le abilità di Google, che riesce a integrare tutti i suoi servizi, non possono essere paragonate con quelle di ChatGPT. Si tratta insomma di prodotti diversi, con finalità altrettanto difformi e che si rivolgono a un pubblico differente. In futuro chissà: anche perché la rivoluzione nel concetto di programmazione informatica al quale stiamo assistendo è destinata a modificare in modo incisivo l’interazione uomo-macchina e le modalità con cui i contenuti vengono cercati e prodotti.
Scott Aaronson di OpenAI ha rivelato che il suo team sta attualmente valutando di inserire una filigrana nei testi generati ricorrendo all’intelligenza artificiale di ChatGPT.
Una filigrana digitale o watermark consiste nell’inserimento di alcune informazioni all’interno di un file: rappresentano uno strumento inoppugnabile per accertare l’autore e la provenienza di ciascun elemento.
Aaronson spiega che è possibile “filigranare statisticamente” gli output di un modello di testo come GPT: in questo modo, attraverso una successiva analisi dei testi è possibile riconoscere quelli prodotti con ChatGPT.
La pseudocasualità dell’algoritmo utilizzato aiuta a disporre le parole in modo che appare casuale solo a una prima analisi; con una verifica approfondita ci si accorge che la sequenza dei termini non è veramente casuale.
“Ogni volta che GPT genera un testo lungo, vogliamo che ci sia un segnale segreto di norma impercettibile nella scelta e nella disposizione delle parole che può essere successivamente usato per dimostrare la provenienza dell’articolo“, ha dichiarato Aaronson.
Un modo semplice per aggirare il tipo di filigrana proposto da OpenAI è quello di passare il testo generato dal chatbot a un’altra intelligenza artificiale in grado di rielaborare il testo producendo una versione derivata.