Nel 2018 Google ha presentato al pubblico una serie di principi su cui si affidava per l’utilizzo e lo sviluppo dell’Intelligenza Artificiale, una tecnologia innovativa e dalle enormi potenzialità. Questi avrebbero dovuto servire per rassicurare gli utenti su un utilizzo consapevole di uno strumento che, come oggi confermato, ha di fatto rivoluzionato il mondo.
Il Washington Post ha individuato una sostanziale modifica a questo documento, nel quale veniva originariamente specificato come l’azienda non avrebbe progettato o distribuito strumenti AI nell’ambito della creazione di armi o in tecnologie di sorveglianza. Di fatto, questa parte, sembra essere sparita dalle linee guida.
Questa dicitura appariva in una sezione chiamata “Applications we will not pursue” (ovvero Applicazioni che non perseguiremo), che non è più presente sul documento.
AI e armi: Google segue l’esempio di OpenAI e fa un passo indietro
A quanto pare, tra le norme è invece apparsa una nuova dicitura, che parla di “Sviluppo e distribuzione responsabili“. Qui viene fatto accenno a “Un’adeguata supervisione umana” oltre a meccanismi di feedback e a una generica “Responsabilità sociale“. Nel complesso, sembra che Google abbia voluto rendere molto più generico il suo impegno, lasciando aperto a potenziali utilizzi bellici.
In precedenza la compagnia aveva apertamente affermato che non avrebbe progettato l’AI per creare armi o altre tecnologie il cui scopo principale o implementazione è quello di causare o facilitare direttamente lesioni alle persone. Questa non è del tutto una sorpresa, visto che anche OpenAI ha assunto un comportamento simile con ChatGPT, intervenendo sulla propria documentazione per aprire alla potenziale creazione di armi.
A testimonianza ulteriore di questo preoccupante trend, circa un anno fa, diversi scienziati si sono mobilitati per contrastare eventuali utilizzi bellici dell’AI, con tanto di rischi per quanto concerne la creazione di armi biologiche.