Umanizzare testo AI: cosa significa e quando è importante

I chatbot basati su LLM sono strumenti potenti, ma presentano diversi problemi: allucinazioni, bias e mancanza di creatività. Umanizzare i testi generati dall'IA è fondamentale per rendere i contenuti più naturali, verificabili e adatti alla comunicazione umana. Tuttavia, l'uso di strumenti automatizzati per migliorare tali testi può essere riconosciuto dagli algoritmi di rilevamento, creando una vera e propria "corsa agli armamenti". La morale è che la stesura di testi professionali non può mai mettere da parte l'intervento umano.

Non si contano i chatbot basati su modelli generativi che usano LLM (Large Language Models) evoluti in grado di produrre risposte coerenti, accurate e rilevanti. Come emerso fin dalla presentazione delle prime soluzioni capaci di generare testi usando l’intelligenza artificiale, gli LLM sono tutt’altro che infallibili. Umanizzare il testo generato con l’AI (Artificial Intelligence) è essenziale perché un LLM, anche quelli più evoluti, possono presentare un ampio ventaglio di problemi.

I problemi del testo generato usando i LLM

Uno dei principali problemi è che gli LLM, e quindi i chatbot oggi usati da milioni di utenti (i chatbot rappresentano l’interfaccia tra l’utente e il sottostante modello AI), sono soggetti al fenomeno chiamato allucinazione. Possono cioè produrre informazioni errate o completamente “inventate”. Ciò accade perché il modello può combinare dati non correlati o generare risposte senza una vera comprensione del contesto reale.

Come abbiamo ripetutamente evidenziato, infatti, i LLM – anche quelli contraddistinti da un numero elevato di parametri – utilizzano un approccio stocastico ovvero si avvalgono delle informazioni precedentemente calcolate per stabilire con quale probabilità una parola segue un’altra in una certa sequenza.

In tanti si chiedono quando l’intelligenza artificiale supererà quella umana: la domanda è mal posta perché l’AI non “pensa”. Un LLM lavora basandosi su complesse associazioni di numeri e produce un output partendo da un’attenta analisi dell’input. Proprio partendo dall’input, il LLM seleziona i token (unità di testo) più appropriati basandosi su probabilità calcolate. Non ragiona assolutamente come farebbe un essere umano.

Da qualche mese a questa parte (attenzione, “mese” non “anno”) alcuni player più attrezzati nel campo dell’AI hanno introdotto il concetto di chain-of-thought. Svelando i segreti di OpenAI o1, abbiamo visto che le intelligenze artificiali generative possono ragionare, usando però un meccanismo molto diverso da quello che contraddistingue il cervello umano.

Ciò che si fa è indurre il LLM a scomporre un problema complesso in passi più semplici, migliorando così le prestazioni su compiti di ragionamento complesso, come aritmetica, logica simbolica e ragionamento logico.

Bias, pregiudizi e creatività

Gli LLM sono addestrati su grandi dataset, spesso informazioni acquisite da un crawler che scandaglia il contenuto del Web. Quei dati di addestramento contengono pregiudizi culturali, sociali o razziali: di conseguenza, il modello può riprodurre e amplificare questi bias nei testi generati, creando contenuti discriminatori o non etici.

L’approccio stocastico, inoltre, porta certamente ad avere contenuti molto diversi l’uno dall’altro utilizzando lo stesso prompt, ovvero la medesima richiesta in input. Tuttavia, i testi prodotti da un LLM non possono essere creativi perché quanto generato è sempre figlio di ciò che è stato acquisito a valle dalla fase di addestramento.

Ripetizione e ridondanza

Mentre gli LLM più recenti sono particolarmente abili nel gestire testi lunghi e complessi (la dimensione della context window è cresciuta molto rispetto al passato…), possono ancora generare testi ripetitivi o ridondanti. Questo comportamento è riscontrabile soprattutto allorquando il modello non riuscisse a trovare nuove associazioni nei dati di addestramento.

L’uso di un prompt ben strutturato, inoltre, rimane essenziale per ottenere risposte di qualità. È bene ricordare che l’obiettivo di un LLM è proseguire la sequenza di token che contraddistinguono l’input, per fornire poi quanto prodotto come risposta. Domande mal definite o argomenti complessi possono portare alla generazione di contenuti ambigui o incoerenti.

Da dove scaturisce l’esigenza di umanizzare il testo delle AI

Tenendo a mente quanto riassunto al paragrafo precedente, dovrebbe risultare evidente la necessità di umanizzare il testo AI. I contenuti prodotti dai LLM devono essere comprensibili, empatici e vicini all’esperienza umana. Ma soprattutto devono essere veritieri, verificabili ed esenti da bias.

Google Search non penalizza tutti i contenuti generati avvalendosi dell’IA. Semmai, non tollera i testi prodotti senza un minimo di rielaborazione, creati con il solo scopo di “fare numero e volume”. Insomma, generati da un bot e pubblicati da o come un bot. Ricordarsi del mantra di Google: almeno in linea teorica il motore di ricerca premia sempre la qualità dei contenuti.

Come abbiamo più volte rammentato anche nel caso della programmazione informatica che è viva e vegeta anche nell’era dell’AI, qualunque contenuto prodotto da e con un’intelligenza artificiale dovrebbe essere sempre sottoposto a un’attenta revisione umana. E non di un soggetto qualunque ma di un individuo che dispone di conoscenze adeguate per verificare tutte le informazioni prodotte in output.

Tornando all’esempio Google Search, il motore di Mountain View usa la clava con i contenuti tradotti senza alcun tipo di modifica o miglioria, con i siti che non tengono conto della qualità delle informazioni e dell’esperienza dell’utente, con coloro che combinano contenuti provenienti da più fonti senza aggiungere valore, con chi crea testi che raccolgono parole chiave (keywords) specifiche ma che non hanno alcuna utilità per il lettore. Ah, e Google riesce a rilevare e penalizzare quei siti che provano a manipolare il motore di ricerca attraverso la creazione di testi che sembrano originali, ma in realtà sono generati o modificati automaticamente per evitare di essere rilevati come duplicati o di bassa qualità.

L’AI può aiutare e generare contenuti utili in modi nuovi ed entusiasmanti“, scrive Google. A patto di saperla usare.

Come funzionano gli strumenti che riconoscono i testi generati con l’intelligenza artificiale?

Da qualche tempo a questa parte sono spuntati come funghi strumenti online che permettono di riconoscere i testi generati con l’AI. Funzionano davvero?

La risposta è sì. In breve, essi riconoscono gli schemi utilizzati dai modelli generativi e stabiliscono quali sono i testi generati con l’IA e quali invece sono realizzati da persone in carne ed ossa.

Gli strumenti di rilevamento analizzano i testi cercando caratteristiche distintive riconducibili all’utilizzo di LLM, come la struttura delle frasi, la scelta delle parole e la coerenza logica. Utilizzando algoritmi di machine learning, è quindi possibile identificare schemi tipici dei contenuti generati artificialmente.

I modelli autoregressivi, come quelli utilizzati in ChatGPT, prevedono la probabilità delle parole successive basandosi sulle parole precedenti. Questa capacità di previsione è fondamentale per generare testi che sembrano naturali ma può anche essere sfruttata per identificare contenuti generati dall’AI analizzando le probabilità associate alle sequenze di parole.

Le applicazioni che promettono di riconoscere i dati non solo riconoscono schemi, ma possono anche apprendere dai feedback ricevuti. Gli algoritmi possono quindi adattarsi e migliorare nel tempo, affinando la loro capacità di rilevamento.

Come i LLM possono prendere “cantonate”, anche gli strumenti che riconoscono i testi generati con l’IA possono prendere lucciole per lanterne. I falsi positivi sono dietro l’angolo, insomma. Lo abbiamo verificato predisponendo testi scritti completamente di nostro pugno.

Potete dare un’occhiata a ZeroGPT, strumento che per adesso non impone particolari limitazioni sui testi da controllare, e fare qualche prova. Potete però cercare IA Detector su Google Search per individuare un’infinità di strumenti alternativi.

La nascita degli strumenti online per umanizzare i testi AI

Come sono nate le applicazioni per valutare i testi prodotti avvalendosi dell’intelligenza artificiale, così si rincorrono decine di prodotti che promettono di umanizzare i testi AI.

Una volta incollato il testo, l’applicazione analizza la struttura grammaticale, il lessico e i modelli di scrittura tipici dei contenuti generati con l’IA. L’uso di tecniche di NLP (Natural Language Processing) aiuta a identificare elementi come frasi lunghe, ripetizioni e mancanza di variazione stilistica, tipici dei “testi artificiali”.

Utilizzando modelli linguistici addestrati su grandi quantità di dati scritti da esseri umani, gli strumenti riformulano il testo originale. Il processo implica la modifica della sintassi, l’aggiunta di variazioni stilistiche e la sostituzione di alcuni termini con dei sinonimi in modo da rendere il testo più naturale.

Alcuni strumenti possono sfruttare anche l’analisi del sentiment e verificare l’eventuale presenza di “tocchi personali” come ulteriore indizio circa la provenienza del testo.

Non c’è il rischio che i sistemi per umanizzare il testo e riscriverlo, basati a loro volta su modelli AI, possano essere riconosciuti usando tool dedicati?

Quello fin qui descritto è però un po’ il gioco del gatto col topo. I sistemi progettati per umanizzare e riscrivere testi generati con l’AI possono a loro volta essere riconosciuti da strumenti dedicati.

Con l’evoluzione continua dei modelli generativi e degli strumenti di rilevamento, c’è una sorta di “corsa agli armamenti” tra chi sviluppa contenuti generati con l’IA e chi crea strumenti per identificarli. Ogni miglioramento in uno dei due ambiti può influenzare l’efficacia dell’altro.

Anche i sistemi di umanizzazione possono soffrire di bias indotti dai dati di addestramento. Il risultato sono ancora una volta risultati prevedibili che potrebbero essere facilmente identificabili dai sistemi di rilevamento, aumentando il rischio che il contenuto venga classificato come artificiale.

Conclusioni

Allo stato attuale è difficile stabilire se un contenuto è stato scritto con l’IA o meno, fatta eccezione per quei testi che contengono indizi evidenti circa l’utilizzo di un LLM.

Creare testi contenenti informazioni valide e verificate, con un buon livello di approfondimento, è essenziale in un’epoca in cui i modelli generativi sono in tanti ambiti, a torto, sono considerati una “scorciatoia”. Un LLM dovrebbe invece aiutare a individuare nuovi spunti, a mettere a fuoco delle idee, a raccogliere informazioni provenienti da molteplici fonti (pensate a ciò che fa NotebookLM di Google). È impensabile accettare come valido, in toto, un contenuto prodotto da un chatbot o da un qualunque altro strumento basato sull’IA.

In un testo la narrazione deve essere comprensibile e significativa, con introduzioni chiare, argomentazioni sviluppate (che facciano emergere la professionalità e le competenze dell’autore) e conclusioni che possano essere fonte di ulteriori riflessioni e approfondimenti da parte del lettore.

Credit immagine in apertura: iStock.com – Userba011d64_201

Ti consigliamo anche

Link copiato negli appunti