OpenAI: sistema messaggistica interno violato, chat nelle mani degli hacker

Hacker violano il sistema di messaggistica interno di OpenAI: il comportamento della compagnia e la reazione dei dipendenti.

Secondo quanto rivelato dal New York Times, nei primi mesi del 2023 il sistema di messaggistica interno di OpenAI è stato violato da alcuni hacker. Durante l’operazione, a quanto pare, i cybercriminali avrebbero messo le mani su alcune informazioni dettagliate per quanto riguarda i piani futuri dell’azienda.

Il tutto sembra essere avvenuto attraverso l’accesso a un forum privato, dove i dipendenti di OpenAI discutevano riguardo il lavoro della compagnia. Pur non accedendo in modo diretto a materiale sensibile, gli hacker hanno dunque potuto, per un periodo non meglio precisato, di tenere sotto controllo le tante discussioni.

A quanto pare i dirigenti della compagnia hanno avvisato i dipendenti dell’intromissione durante una riunione, nell’aprile 2023. Gli stessi hanno comunque fatto sapere che nessun segreto tecnologico è stato rubato, così come i cybercriminali non hanno avuto accesso a informazioni riguardo partner o clienti.

In seguito a un’indagine interna è stato stabilito che l’hacking era riconducibile a un singolo utente, non legato a gruppi di hacker particolari. In virtù di ciò, OpenAI non ha sporto denuncia e non ha coinvolto l’FBI per ulteriori indagini.

Il sistema messaggistica interno violato, la sicurezza dei dati e la spaccatura interna di OpenAI

Il comportamento di OpenAI, che ha preferito sorvolare su quanto accaduto, non è piaciuto a tutti i dipendenti.

Per molti, infatti, la startup è stata poco prudente, soprattutto in virtù delle recenti tensioni a livello tecnologico (e non solo) tra Stati Uniti e Cina. Stando al NYT, questa divergenza di opinioni sarebbe diventata una vera e propria spaccatura. Alcuni ex esponenti, anche di rilievo, hanno poi in seguito sostenuto come OpenAI non sembra troppo efficiente quando si tratta di prevenire potenziali fughe di dati.

Per alcuni personaggi esterni, invece, il furto di dati nel contesto dell’IA non rappresenta un rischio di rilievo nazionale. A sostenerlo è la diretta concorrenza di OpenAI, ovvero la co-fondatrice di Anthropic, Daniella Amodei.

Ti consigliamo anche

Link copiato negli appunti