CEO di OpenAI preoccupato per uso IA: servono più controlli da parte delle autorità

Durante la discussione dinanzi al Congresso USA, Sam Altman ha manifestato i suoi timori per gli utilizzi illeciti delle intelligenze artificiali durante le elezioni e in altre attività. La sua proposta di controllo chiede l'intervento dei governi.

Il CEO di OpenAI, Sam Altman, ha discusso con la commissione del Senato statunitense in merito all’uso dell’intelligenza artificiale  per varie attività che, per la loro stessa natura, dovrebbero essere gestite con la massima delicatezza e attenzione. Il numero uno della società che ha progettato e sviluppato ChatGPT oltre ai modelli generativi che ne governano il funzionamento, ha manifestato le sue preoccupazioni riguardo l’uso delle IA, ritenendo che vi sia una pressante necessità di regolarne l’impiego in alcune aree “sensibili”. Si pensi, ad esempio, all’utilizzo dell’IA nei periodi elettorali, ad esempio al fine di alterare in modo artificioso le opinioni dei cittadini, e negli enti pubblici.

La discussione è nata da un’osservazione mossa dalla senatrice Mazie Hirono che ha evidenziato il pericolo di disinformazione con l’avvicinarsi delle elezioni 2024. Nei contesti elettorali, infatti, la diffusione di testi falsi generati dalle IA o di deepfake realizzati “ad hoc” con strumenti come Midjourney e Stable Diffusion potrebbe danneggiare l’intera comunità, sollevando nuovi pregiudizi o compromettendo il corretto esercizio della democrazia.

Altman ha risposto che i creatori delle IA dovrebbero fornire strumenti per determinare l’origine effettiva di un’immagine o di un testo: per quanto sia innegabile la presenza di elementi che palesano la natura di un contenuto multimediale artificiale, in certi casi la questione diventa particolarmente complessa.

Parlando al Congresso, Altman ha suggerito che gli Stati Uniti – e altri governi nazionali – dovrebbero prendere in considerazione la creazione di meccanismi di licenza e test riconosciuti al fine di sviluppare modelli IA sicuri e trasparenti.

Nello specifico, l’amministratore delegato di OpenAI ha affermato che un modello capace di persuadere o manipolare le convinzioni di una persona deve essere sempre soggetta a licenza, e che le aziende devono avere il diritto di dire che non vogliono che i loro dati vengano utilizzati per la formazione sull’intelligenza artificiale.

Stando a quanto riferito da Reuters, un membro dello staff di OpenAI avrebbe addirittura proposto la creazione di un’agenzia per accordare l’autorizzazione per lo sviluppo di nuove intelligenze artificiali sotto licenza: potrebbe chiamarsi Office for AI Safety and Infrastructure Security (OASIS).

L’introduzione di licenze o concessioni governative per la realizzazione di IA guarda a una regolamentazione più rigorosa per garantire che le applicazioni di intelligenza artificiale siano sviluppate e utilizzate in modo responsabile e in linea con gli obiettivi sociali. Un’autorizzazione governativa come quella che sembra auspicare Altman potrebbe consentire, stando alla sua visione, un maggiore controllo sullo sviluppo e l’implementazione dell’IA per garantire che non vengano compromessi i sistemi critici o utilizzati in modo dannoso.

C’è però anche il rovescio della medaglia: l’introduzione di licenze o concessioni potrebbe garantire che solo individui o organizzazioni con le competenze e le qualifiche adeguate (accertate e riconosciute da chi?) siano autorizzati a lavorare sull’IA. L’importante è che non si voglia in qualche modo mettere i bastoni tra le ruote a quel desiderio di innovazione promosso ad esempio dalla stessa comunità open source che ha addirittura messo il singolo sviluppatore nelle condizioni di disegnare la sua IA con hardware facile da reperire e in breve tempo. I modelli open source per l’intelligenza artificiale supereranno quelli di Google, Microsoft e OpenAI aveva recentemente preconizzato un dipendente dell’azienda di Mountain View.

Ti consigliamo anche

Link copiato negli appunti