Lo scorso luglio OpenAI ha formato il team Superalignment (guidato dallo scienziato Ilya Sutskever) per sviluppare modalità per regolare e governare i sistemi di intelligenza artificiale “superintelligenti“, ovvero sistemi teorici con un’intelligenza di gran lunga superiore a quella umana. L’azienda creatrice di ChatGPT ha pubblicato adesso i primi risultati della ricerca condotta dal suo team in merito ai possibili rischi di questo tipo di intelligenze artificiali. In un documento recentemente il gruppo descrive una tecnica che consente a un modello linguistico di grandi dimensioni meno potente di supervisionarne uno più potente e suggerisce che questo potrebbe essere un piccolo passo verso la comprensione di come gli esseri umani potrebbero supervisionare le macchine superintelligenti.
OpenAI: i test del team Superalignment per prevenire i pericoli dell’AGI
Il team Superalignment ha l’obiettivo di garantire che l’intelligenza artificiale rimanga sicura e vantaggiosa mentre si avvicina e supera l’intelligenza umana. Come dichiarato da Leopold Aschenbrenner, ricercatore del gruppo di ricerca Superalignment di OpenAI, ai colleghi di WIRED, “L’AGI – intelligenza artificiale generale – si sta avvicinando molto rapidamente. Vedremo modelli sovrumani, avranno grandi capacità e potrebbero essere molto, molto pericolosi, e non abbiamo ancora i metodi per controllarli”. Gli esperimenti prevedevano l’utilizzo del generatore di testo GPT-2 di OpenAI per fare richieste a GPT-4, un modello più avanzato. I ricercatori hanno testato due metodi per prevenire il peggioramento delle prestazioni di GPT-4. Il primo metodo prevedeva l’addestramento di modelli progressivamente più grandi, mentre il secondo aggiungeva una modifica algoritmica a GPT-4. Quest’ultimo si è rivelato più efficace, anche se i ricercatori riconoscono che il perfetto controllo del comportamento non è ancora garantito.
OpenAI prevede di dedicare una parte significativa della sua potenza di calcolo al progetto Superalignment, ma è anche alla ricerca di una collaborazione esterna. L’azienda, in partnership con l’ex CEO e presidente di Google Eric Schmidt, sta lanciando un programma di sovvenzioni da 10 milioni di dollari per sostenere la ricerca tecnica sull’allineamento superintelligente. Alcune quote saranno riservate a laboratori accademici, organizzazioni no-profit, singoli ricercatori e studenti laureati. OpenAI prevede infine di ospitare una conferenza sul super allineamento all’inizio del 2025, dove condividerà e promuoverà il lavoro dei finalisti del progetto.