La ricerca e lo sviluppo nel campo dell’Intelligenza Artificiale stanno progredendo a un ritmo vertiginoso. Se da una parte questo sviluppo offre nuove opportunità, dall’altro crea anche scenari alquanto inquietanti.
OpenAI ha recentemente pubblicato i risultati di un test per determinare se GPT-4 semplificherà creazione e utilizzo di armi biologiche o meno. Sulla base dei risultati della verifica, la compagnia prevede di procedere con la costruzione di un sistema preventivo per questo tipo di abuso. Questo tipo di rischio non è di certo una novità visto che, attraverso l’ordine esecutivo emesso da Joe Biden il 30 ottobre 2023 aveva già sensibilizzato l’opinione pubblica in merito.
OpenAI, tutt’altro che insensibile a questa tematica, sta lavorando allo sviluppo di un sistema che dovrebbe avvertire di potenziali tentativi di manipolazione dell’IA per quanto concerne la creazione di armi biologiche.
La società ha deciso di intraprendere una collaborazione con Gryphon Scientific, compagnia specializzata nella consulenza scientifica. Il fine di questa sinergia è quello di creare un sistema che, di fatto, vada a bloccare efficacemente i tentativi di abuso di GPT-4.
Armi biologiche con l’IA? Ecco come OpenAI sta studiando un sistema di prevenzione
La collaborazione ha comportato un test che ha coinvolto 50 ricercatori di biologia e altrettanti studenti che, divisi per gruppi, hanno cercato di utilizzare GPT-4 per forzare il sistema e tentare di creare una fantomatica arma biologica.
Dai dati ottenuti, OpenAI ha accertato come potenzialmente “L’Intelligenza Artificiale rischia di rendere più efficiente lo sviluppo di armi biologiche“. La società di Sam Altman ha specificato come l’IA stia progredendo rapidamente e come, in un prossimo futuro, serve porre un limite alla sua operatività in certi contesti.
La società ha dunque appurato come “La ricerca su come farlo e su come prevenire i rischi è estremamente importante“. Nonostante il rifiuto di rispondere a certe domande del chatbot, infatti, questi limiti risultano facilmente aggirabili.
Per limitare i pericoli, OpenAI sta anche costruendo un sistema di riduzione del rischio battezzato Preparedness. Questo dovrebbe includere alcune soluzioni preventive, anche se si tratta di un progetto ancora in fase embrionale.
Our results indicate a clear need for more work in this domain. If you are excited to help push our models to their limits and measure their risks, we are hiring for several roles on the Preparedness team! https://t.co/WSufJzIdkX
— OpenAI (@OpenAI) January 31, 2024