La tecnologia nota come SynthID è disponibile come strumento open source. Ad annunciare l’apertura a tutti del sistema per filigranare il testo generato dall’Intelligenza Artificiale è Google stessa.
Attraverso un’intervista di MIT Technology Review a Pushmeet Kohli, vicepresidente della ricerca presso Google DeepMind, ha fatto sapere come ora tutti gli sviluppatori legati all’IA generativa saranno in grado di accedere a questa tecnologia. Le filigrane sono strumenti considerati ormai essenziali per i large language models (LLM) in quanto risultano utili per evitare abusi.
I sistemi per contrassegnare contenuti manipolatori come fake news hanno portato la politica ad agire attraverso le filigrane. Le prime azioni di questo tipo si sono viste in California, dove questa tecnologia è obbligatoria.
SynthID, in questo campo, rappresenta l’avanguardia: si tratta di uno strumento utilizzato da tempo nel contesto Google, sia per quanto riguarda contenuti testuali che per immagini, audio e video.
SynthID diventa open source, ma la strada per un’IA sicura è ancora molto lunga
Il funzionamento di SynthID e di altri strumenti simili è alquanto semplice. Lo stesso inserisce alcuni pattern nel testo impercettibili per gli esseri umani ma ben visibili per il software.
Google ha più volte sostenuto come, nonostante l’efficacia di SynthID, questo non vada a influire sulla qualità del testo. A dimostrazione di ciò, il sistema è già stato implementato da tempo nel contesto del suo chatbot Gemini, senza che questo influenzasse la qualità dell’output testuale. Nonostante ciò, non è da considerarsi come una soluzione definitiva al problema.
Come confermato dall’azienda, questo strumento è efficace con testi brevi, ma non riesce ad essere efficace con documenti più lunghi, riscritti o tradotti. Durante l’intervista a Kohli, lo stesso ha puntualizzato come SynthID non sia “Una panacea per identificare i contenuti generati dall’IA“, ma un supporto per sviluppare strumenti futuri ancora più precisi.
Va comunque ricordato come, il testo generato dall’IA è solo un problema legato a questa nuova tecnologia. Potenzialmente ancora più pericoloso è infatti il proliferare dei famigerati deepfake.