Il progredire dell’Intelligenza Artificiale, oltre a tante opportunità, ha creato anche molti dubbi e preoccupazioni.
Nel contesto dei pericoli rispetto al progredire della tecnologia, però, i colossi del settore non vogliono farsi cogliere impreparati. Proprio a tal proposito, si è espresso Sam Altman, CEO di OpenAI che ha affermato come “La regolamentazione dell’intelligenza artificiale è essenziale“.
Proprio a tal proposito, la società che ha creato ChatGPT, ha creato un nuovo team, denominato Preparedness, per far fronte a una potenziale situazione catastrofica causata dai futuri modelli di IA.
Sul blog di OpenAI si legge un post che dice “Crediamo che i ‘modelli di intelligenza artificiale di frontiera’ che vanno oltre le capacità dei modelli di intelligenza artificiale all’avanguardia esistenti abbiano il potenziale per avvantaggiare tutta l’umanità“, sottolineando poi anche come questi pongono la stessa umanità a “Rischi ancora più gravi “.
Nel post, pubblicato il 26 ottobre, vengono poi poste alcune per valutare i potenziali rischi futuri, come:
- Quanto sono pericolosi i modelli di intelligenza artificiale più innovativi se vengono utilizzati in modo improprio ora e in futuro?
- Come possiamo costruire un quadro solido per monitorare, valutare, prevedere e proteggere l’umanità dalle caratteristiche pericolose nei modelli di IA più innovativi?
- Se il “modello di pensiero” di un’ di un modello IA viene rubate, come può sfruttarle un utente malintenzionato?
Rischi catastrofici legati all’IA? OpenAI scende in campo con due iniziative distinte
Il team Preparedness (dall’inglese Preparazione) è guidato da Alexander Madrid, ex direttore del Center for Deployable Machine Learning presso il Massachusetts Institute of Technology.
Il team di preparazione parla dell’IA che sarà sviluppata nel prossimo futuro, con il focus sulla sua capacità di ingannare e persuadere gli esseri umani toccando anche altri ambiti come sicurezza informatica e capacità di elaborazione in campi come chimica, biologia, radiologia e nel settore nucleare. Aiuterà a monitorare, valutare, prevedere e proteggere da rischi catastrofici in molteplici contesti.
La missione del team di preparazione include anche lo sviluppo e il mantenimento di un sistema una politica di sviluppo informata sul rischio (RDP) e la creazione di una struttura di governance, utile per la responsabilità e la supervisione durante tutto il processo di sviluppo dell’IA.
Inoltre, OpenAI sta collaborando con società di sviluppo dell’intelligenza artificiale come Anthropic, Google e Microsoft per creare un’organizzazione di settore per promuovere la sicurezza nel contesto dell’IA, chiamata Frontier Model Forum, che dovrebbe aprire ufficialmente i battenti nel luglio 2023. È stato inoltre annunciato che Chris Meserole, ex direttore dell’intelligenza artificiale e ricerca sulle tecnologie emergenti presso la Brookings Institution, sarà il primo direttore esecutivo di tale entità.
Oltre a monitorare l’utilizzo dell’IA, Frontier Model Forum ha intenzione di attuare diverse iniziative e finanziamenti per sostenere i ricercatori che operano in questo contesto.