OpenAI: nuovo sistema di monitoraggio per prevenire rischi biologici

OpenAI implementa un sistema di monitoraggio per bloccare eventuali rischi biologici nei modelli o3 e o4-mini.
OpenAI: nuovo sistema di monitoraggio per prevenire rischi biologici

OpenAI ha recentemente annunciato un nuovo sistema di monitoraggio progettato per migliorare la sicurezza dell’Intelligenza Artificiale, con l’obiettivo di prevenire l’uso improprio delle sue tecnologie per creare minacce biologiche o chimiche.

Il sistema è stato implementato sui modelli AI avanzati come o3 e o4-mini, noti per le loro capacità di ragionamento superiori. Tuttavia, proprio queste capacità rappresentano una sfida: il modello o3, in particolare, ha dimostrato una preoccupante abilità nel fornire dettagli sulla creazione di agenti biologici pericolosi. Per contrastare questa vulnerabilità, OpenAI ha sviluppato un sistema di monitor AI sofisticato, capace di identificare e bloccare richieste potenzialmente dannose.

La creazione di questa piattaforma ha richiesto un lavoro intenso da parte di esperti, che hanno dedicato circa mille ore all’analisi di pattern conversazionali rischiosi. I test iniziali hanno mostrato un tasso di efficacia del 98,7% nel respingere richieste inappropriate. Nonostante ciò, OpenAI riconosce che il sistema non è infallibile, soprattutto contro richieste formulate in modo ambiguo per eludere le protezioni.

Rischi biologici: OpenAI si attiva, ma le sue iniziative non soddisfano tutti gli esperti

Nonostante i modelli o3 e o4-mini non siano classificati come “ad alto rischio” secondo i parametri interni dell’azienda, la loro capacità di elaborare informazioni sensibili ha reso necessaria l’introduzione di controlli più rigorosi. Questa misura preventiva sottolinea l’impegno di OpenAI nel bilanciare progresso tecnologico e sicurezza pubblica.

Parallelamente, OpenAI sta perfezionando il suo Preparedness Framework, un insieme di linee guida per anticipare e gestire i rischi emergenti. Questo approccio è già stato applicato con successo per impedire la generazione di contenuti legati all’abuso minorile tramite il generatore di immagini integrato in GPT-4o.

Non mancano però le voci critiche. Alcuni ricercatori, come il partner di test Metr, hanno sollevato dubbi sulla trasparenza e sulle tempistiche delle valutazioni di sicurezza. Ad esempio, OpenAI non ha ancora pubblicato un rapporto sulla sicurezza per il modello GPT-4.1, alimentando perplessità tra gli addetti ai lavori.

Ti consigliamo anche

Link copiato negli appunti