Nelle scorse settimane, l’azienda guidata da Sam Altman ha presentato in anteprima OpenAI Sora, un modello di intelligenza artificiale che consente di creare video realistici partendo da descrizioni (prompt) testuali. Il nuovo strumento, non ancora pubblicamente disponibile, sfrutta una complessa configurazione basata sull’uso di reti neurali per generare sequenze video ad altissima risoluzione, con scene dettagliate e complesse, della durata massima di 60 secondi.
Avevamo brevemente descritto il funzionamento di OpenAI Sora mettendo il luce la potenza della piattaforma. L’uso di reti neurali profonde (DNN) suddivise in più fasi, addestrate su un vasto corpus di dati video, permette al sistema di comprendere, analizzare e generare video realistici. Oltre a tradurre istruzioni testuali, anche molto articolate, in sequenze visive coerenti, Sora ha la capacità di narrare storie con un approccio cinematografico, offrendo un aspetto visivo realistico e coinvolgente.
OpenAI Sora: il fotorealismo video solleva le preoccupazioni del Garante Privacy italiano
Abbiamo detto che Sora si mette in evidenza per i risultati sorprendenti ottenibili con grande semplicità. I video prodotti possono includere attori virtuali in grado di esprimere emozioni realistiche. Provate a visitare il sito Web dedicato al progetto OpenAI Sora: ad oggi l’azienda nella quale ha pesantemente investito Microsoft, ha pubblicato 9 video dimostrativi generati dall’IA. Rendetevi conto della tipologia di filmato che il modello generativo è riuscito a produrre a fronte di ciascun prompt inserito come input (lo si può trovare in basso, immediatamente al di sotto di ciascun video…).
La nuova tecnologia che OpenAI sta mettendo a punto apre nuove prospettive nella generazione di contenuti video mediante l’intelligenza artificiale, anche se sottolinea la necessità di considerazioni etiche e sociali riguardanti la manipolazione dei media e la sicurezza.
La sicurezza di OpenAI Sora e l’addestramento continuo indicato come soluzione
Nel presentare Sora, OpenAI stessa ha dichiarato di essere in procinto di adottare diverse accortezze sul versante della sicurezza. Un team di red teamers è impegnato nelle attività di verifica e ottimizzazione del modello al fine di combattere utilizzi che possano portare alla generazione di contenuti disinformativi, sconvenienti, materiale che possa alimentare odio e pregiudizi.
Così, i tecnici di OpenAI stanno sviluppando strumenti “ad hoc”, come un classificatore automatico, al fine di identificare contenuti fuorvianti generati da Sora. Al momento, comunque, Sora già è in grado di sfruttare le metodologie di sicurezza sviluppate per altri modelli basati su DALL·E 3. È quindi possibile rifiutare prompt che violano le politiche d’uso o che comunque possano essere causa di problemi.
OpenAI, comunque, riconosce come sia di fatto impossibile rilevare correttamente tutti gli utilizzi legittimi o i potenziali abusi della tecnologia. L’addestramento continuo, dall’interazione e con il mondo reale, è ritenuto essenziale per la creazione e la distribuzione di sistemi basati sull’IA che possano essere sempre più sicuri nel tempo.
Perché il Garante Privacy apre una nuova istruttoria nei confronti di OpenAI
Il Garante Privacy italiano, che aveva recentemente inviato a OpenAI un atto di contestazione formale, ritenendo inadeguate le misure implementate in precedenza, ha aperto un nuovo fascicolo. L’Autorità fa questa volta riferimento alle possibili implicazioni che il servizio Sora potrebbe avere sul trattamento dei dati personali degli utenti che si trovano nell’Unione Europea e in particolare in Italia.
Entro 20 giorni, OpenAI dovrà precisare se il nuovo modello di intelligenza artificiale sia un servizio già disponibile al pubblico e se venga o verrà offerto agli utenti europei e ai residenti nel nostro Paese. Inoltre dall’ufficio del Garante si chiede ad OpenAI di chiarire nel dettaglio una serie di elementi sul funzionamento di Sora: le modalità di addestramento dell’algoritmo; i dati raccolti ed elaborati per addestrarlo, specialmente se si tratti di dati personali; se tra questi vi siano anche particolari categorie di dati (convinzioni religiose, filosofiche, opinioni politiche, dati genetici, salute, vita sessuale); quali siano le fonti utilizzate.
Nel caso in cui il servizio fosse offerto agli utenti europei, il Garante ha chiesto in particolare a OpenAI di indicare se le modalità previste per informare utenti e non utenti oltre e le basi giuridiche del trattamento dei dati forniti siano conformi al Regolamento europeo (GDPR).