Da quando il chatbot ChatGPT è stato presentato a fine novembre 2022, in tanti l’hanno utilizzato per generare contenuti che poi hanno pubblicato e condiviso tramite blog, siti Web e post sui social.
Il fatto è che, sebbene in molti casi ChatGPT svolga un ottimo lavoro, sono molteplici le circostanze i contenuti non vengono verificati, con il rischio di diffondere informazioni con uno scarso livello di approfondimento, inaccurate o addirittura del tutto fasulle. Lo sa bene Google che durante la presentazione della sua intelligenza artificiale Bard ha commesso un errore imperdonabile: una delle risposte fornite conteneva un errore madornale. Interrogato sulle caratteristiche e sulle abilità del telescopio spaziale James Webb, il chatbot di Google ha affermato che è stato il primo a scattare la foto di un pianeta posto al di fuori del nostro sistema solare quando ciò non corrisponde assolutamente al vero.
Considerata tuttavia l’apertura di Google all’utilizzo dei modelli generativi, come verranno trattati i contenuti pubblicati sul Web che sono stati scritti da un chatbot o comunque da un’intelligenza artificiale?
Innanzitutto c’è il problema di riconoscere i testi scritti con un’intelligenza artificiale: come abbiamo visto neppure OpenAI è al momento in grado di riconoscere con buona approssimazione i testi creati da umani e quelli prodotti dal suo stesso chatbot ChatGPT.
In una lunga nota pubblicata da Google, l’azienda chiarisce finalmente la sua posizione in merito alla gestione sul motore di ricerca, in particolare ai fini dell’indicizzazione e del posizionamento, dei contenuti generati dalle intelligenze artificiali.
Secondo Google, i suoi sistemi di ranking sono stati sviluppati per premiare il contenuto originale e di alta qualità che mette in evidenza competenza, esperienza, autorevolezza e affidabilità (E-E-A-T).
La concentrazione di Google sulla qualità del contenuto piuttosto che sul metodo di produzione ha permesso – è il punto di vista della società – di fornire risultati affidabili, preziosi per gli utenti del motore di ricerca.
In generale Google valuta l’uso di meccanismi automatizzati volti alla generazione di contenuti come uno strumento che viola le sue politiche antispam, quando però l’attività è principalmente volta a manipolare artificiosamente il ranking nei risultati di ricerca.
Quando l’intelligenza artificiale viene usata per generare contenuti utili, che soddisfano i massimi standard E-E-A-T, allora la loro pubblicazione non porta a penalizzazioni o alla mancata indicizzazione da parte del motore di ricerca.
Google dispone di vari sistemi, tra cui SpamBrain, per rilevare e prevenire la comparsa di contenuti di IA di bassa qualità nei risultati di ricerca. Spetta quindi sempre a “un umano” verificare con attenzione i contenuti prodotti dalle intelligenze artificiali prima di condividerli intervenendo eventualmente a scopo integrativo, migliorativo e, ove necessario, correttivo.
Affinché i contenuti si posizionino devono essere utili, affidabili e pensati per le persone, indipendentemente da chi e come li genera. Inoltre, aggiunge Google, bisogna sempre chiedersi “chi, come e perché” per ciascun contenuto che si decide di produrre e pubblicare sul Web: se ne parla nella versione inglese della pagina di supporto Google (cliccare su English in alto a destra).
D’altra parte, come spiega Andrej Karpathy, membro fondatore di OpenAI, ricercatore e responsabile fino al 2022 del progetto Tesla Autopilot, soluzioni come ChatGPT e Bard si basano su modelli probabilistici non deterministici: non è previsto l’utilizzo di alcun database perché le risposte fornite in seguito a uno specifico quesito vengono offerte sulla base della sequenza di parole più probabilmente verosimile. Per questo possono essere sfornate castronerie come quella emersa in occasione della presentazione di Bard.