I pericoli dell’Intelligenza Artificiale, con il passare dei mesi, sono sempre più evidenti.
In tal senso, OpenAI ha voluto agire per tempo, andando a creare quello che sarà un nuovo gruppo consultivo sulla sicurezza, capace di coordinare tecnici specializzati, avendo veto sulle questioni riguardanti i pericoli dell’IA.
In risposta alle preoccupazioni sempre più crescenti, dunque, OpenAI vuole rispondere con una struttura più complessa, andando oltre a semplici riunioni a porte chiuse tra dipendenti. In un nuovo post sul blog ufficiale, OpenAI discute il suo “Preparedness Framework” aggiornato, con tutta probabilità modificato a causa della recente rimozione di Helen Toner e del cambio di ruolo di Ilya Sutskever, due membri del consiglio.
Pericoli dell’IA: OpenAI pronta a fronteggiare potenziali rischi catastrofici
Perché questa iniziativa così decisa? Lo scopo di questo restyling è quello di creare un organigramma che offra un percorso chiaro e lineare, facilitando l’identificazione, l’analisi e le decisione quando si presentano rischi “catastrofici” legati all’IA.
In questo contesto rientrano potenziali danni economici per centinaia di miliardi di dollari o azioni che possono minare la salute o la stessa esistenza di molti individui. Gli specialisti, dunque, dovrebbero lavorare in base a diverse categorie di rischio, che spaziano dalla più semplice disinformazione fino a pericoli legati a minacce biologiche o nucleari.
Anche se meno urgenti, resta comunque una priorità per OpenAI il contrasto rispetto agli abusi sistematici di ChatGPT. A tal proposito, il team di sicurezza punta a lavorare ulteriormente nel contesto di restrizioni e/o ottimizzazioni dell’API.
Sebbene la maggior parte di sfruttamento malevolo dell’IA sia relativa a quest’ultima categoria, con la creazione di malware e di campagne phishing, appare evidente come ben presto la situazione potrebbe degenerare. L’impegno di OpenAI per non farsi cogliere impreparata, dunque, è di certo un’azione più che apprezzabile.