A fine agosto 2023 abbiamo parlato di SynthID, tecnologia Google che introduce una “filigrana digitale” nelle immagini così da aiutare gli utenti a distinguere foto reali da quelle prodotte avvalendosi di strumenti basati sull’intelligenza artificiale generativa. Per individuare le immagini create con l’IA, Google ha spiegato di essere in grado di aggiungere una manciata di pixel sulle immagini generate: questi pochi “quadretti” addizionali, fungono da spia per riconoscere un contenuto prodotto artificialmente. Inoltre, non alterano in alcun modo la qualità dell’immagine.
I progressi compiuti dall’IA generativa hanno reso possibile per chiunque utilizzare facilmente questi strumenti per generare immagini e video che sembrano reali. Tuttavia, ciò comporta anche il rischio che gli utenti possano diffondere informazioni false intenzionalmente o involontariamente.
Come funziona SynthID per riconoscere le immagini generate dall’IA
L’estate scorsa, i tecnici di Google DeepMind hanno annunciato SynthID, uno strumento che appunto aggiunge un watermark alle immagini generate dall’IA. Questa speciale filigrana, abilitata attraverso la modifica di alcuni pixel, rende possibile stabilire se l’immagine sia generata dall’intelligenza artificiale, anche quando venissero eliminati i metadati o l’immagine fosse modificata.
Il 14 maggio 2024, gli ingegneri di DeepMind hanno rivelato che le capacità di SynthID saranno estese, permettendo il watermarking dei video generati dal un nuovo modello di IA chiamato Veo. Poiché il video è composto da singoli fotogrammi, il meccanismo di filigranatura di SynthID è simile a quello adottato per le immagini statiche.
Il watermark, spiega Google, è incorporato nei pixel di ogni fotogramma che compone il video, rendendo l’identificazione automatizzata dei video generati dall’IA, senza che questa informazione sia direttamente esposta all’occhio umano. Da DeepMind si aggiunge, inoltre, che tutti i contenuti prodotti con il nuovo strumento di generazione video, VideoFX, già integrato in Veo, includeranno il watermark SynthID.
La filigrana digitale funziona anche con il testo, secondo Google DeepMind. Com’è possibile?
Nel descrivere i passi in avanti compiuti con SynthID, DeepMind assicura che è adesso in grado di inserire anche una sorta di filigrana nei testi generati dall’IA. In altre parole, con una semplice attività di analisi e verifica di qualunque testo scritto, sarebbe possibile stabilire con certezza se sia scritto da una persona in carne ed ossa oppure prodotto da un modello generativo. Ma è davvero così?
Per quanto riguarda i testi, SynthID funziona manipolando la distribuzione dei token. I token sono gli elementi base che il modello linguistico utilizza per produrre il testo, come singoli caratteri, parole o frasi. Lo abbiamo spiegato nell’articolo sul funzionamento dei Large Language Model (LLM).
SynthID modifica, in modo sottile, la probabilità con cui sono selezionati determinati token. Questo tipo di comportamento consente l’inserimento di un watermark nel testo generato dal LLM.
Ovviamente, mentre nel caso di immagini e video la precisione del rilevamento è molto elevata e non dà adito ad errori, quando si tratta di watermarking sui testi bisogna andarci un po’ più con i piedi di piombo. DeepMind sostiene che la modifica di testi lunghi di solito non permette la completa rimozione della filigrana perché in alcuni token tendono a rimanere riconoscibili. Tuttavia, è evidente come una forte rielaborazione del testo prodotto dall’IA o la traduzione da una lingua all’altra possa far saltare il watermarking.
Onestamente, ci sentiamo di affermare che il riconoscimento automatizzato di testi creati sull’IA sia una sfida quasi improba. Molto meglio concentrarsi sulla verifica delle fonti, sull’analisi approfondita del testo, sull’utilizzo di quello spirito critico che solo un umano può sviluppare, piuttosto che puntare su un algoritmo che – alla fine – su base statistica giudichi un testo come creato o meno da un’IA.