Oggi l’intelligenza artificiale viene vista da alcuni come una risorsa, da altri invece come qualcosa di spaventoso e minaccioso. Non ci sono dubbi sul fatto che l’AI continuerà ad evolversi in futuro, ed ecco perché OpenAI ha deciso di formare un team per poter tenere sotto controllo i sistemi AI “super intelligenti”.
L’AI diventerà ancora più intelligente, OpenAI ne è consapevole: ecco il piano per il futuro
OpenAI, l’organizzazione statunitense che ha realizzato DALL-E e ChatGPT, sta mettendo insieme una divisione guidata da Ilya Sutskever, uno dei fondatori. Il motivo lo si apprende da un comunicato diffuso in queste ore: due pilastri di OpenAI (tra cui l’appena citato Sutskever) ritengono che l’AI possa superare l’intelligenza umana nel giro di un decennio e, per evitare problemi di ogni sorta, saranno necessari modi e strumenti per controllarla e limitarla.
Attualmente non abbiamo una soluzione per guidare o controllare un’AI potenzialmente super intelligente e impedire che diventi un problema. Le nostre attuali tecniche di allineamento dell’intelligenza artificiale, come l’apprendimento dal feedback umano, si basano sulla capacità degli esseri umani di supervisionare l’AI. Tuttavia, proprio gli esseri umani non saranno in grado di supervisionare in modo affidabile sistemi di intelligenza artificiale molto più intelligenti di loro.
Ecco quindi che bisogna giocare d’anticipo. Il team di OpenAI, guidato da Ilya Sutskever e Jan Leike, sarà composto da scienziati, ingegneri e ricercatori e punterà a risolvere le principali sfide tecniche del controllo dell’AI super intelligente nei prossimi quattro anni. Per fare ciò, questa divisione addestrerà l’AI affinché sia in grado di assistere nella valutazione di altri sistemi di intelligenza artificiale e possa svolgere ricerche sull’allineamento. A proposito, quando si parla di allineamento, ci si riferisce a risultati in linea con quelli desiderati.
I nostri sistemi di intelligenza artificiale possono svolgere il nostro lavoro di allineamento e concepire, implementare, studiare e sviluppare tecniche di allineamento migliori di quelle che abbiamo noi ora.
Nessun metodo però è infallibile, e di questo ne sono consapevoli negli uffici di OpenAI. Affidare all’AI la valutazione di altri sistemi di intelligenza artificiale potrebbe creare incoerenze e vulnerabilità. I risultati potrebbero dunque essere peggiori di quanto previsto, ma sia Sutskever che Leike ritengono che valga la pena provarci.