Il Garante per la protezione dei dati personali ha deciso di adottare un provvedimento correttivo e sanzionatorio nei confronti di OpenAI, la società statunitense guidata da Sam Altman responsabile dello sviluppo di ChatGPT e dei sottostanti modelli generativi. L’Autorità italiana fa riferimento all’istruttoria avviata a marzo 2023 e alle contestazioni già rivolte a suo tempo nei confronti di OpenAI (che portarono alla temporanea sospensione volontaria del servizio ChatGPT in Italia).
Secondo il Garante Privacy, OpenAI ha tenuto un comportamento censurabile non notificando la violazione dei dati subita a marzo 2023, trattando dati personali degli utenti per addestrare ChatGPT senza aver prima individuato un’adeguata base giuridica, violando il principio di trasparenza e i relativi obblighi informativi nei confronti degli utenti. Inoltre, OpenAI non ha previsto meccanismi per la verifica dell’età, con il conseguente rischio di esporre i minori di 13 anni a risposte inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
Multa da 15 milioni di euro e campagna informativa della durata di 6 mesi
Per mettere una pietra tombale sulla questione, OpenAI è chiamata a versare una sanzione da 15 milioni di euro, commisurata “al comportamento collaborativo tenuto dalla società“. Inoltre, il Garante Privacy ha disposto che OpenAI dovrà realizzare nel nostro Paese una campagna di comunicazione istituzionale di 6 mesi su radio, televisione, giornali e Internet.
L’obiettivo della campagna è quello di favorire la comprensione e la consapevolezza del pubblico sul funzionamento di ChatGPT, in particolare sulla raccolta dei dati di utenti e “non-utenti” per l’addestramento dell’intelligenza artificiale generativa e i diritti esercitabili dagli interessati, inclusi quelli di opposizione, rettifica e cancellazione.
Gli utenti di ChatGPT e chi non utilizza affatto il chatbot dovranno essere “sensibilizzati su come opporsi all’addestramento dell’intelligenza artificiale generativa con i propri dati personali e, quindi, essere effettivamente posti nelle condizioni di esercitare i propri diritti ai sensi del GDPR“.
L’Autorità italiana ha infine trasmesso gli atti del procedimento all’Autorità di protezione dati irlandese (DPC), che è divenuta autorità di controllo capofila ai sensi del GDPR. Il Garante irlandese potrà proseguire l’istruttoria valutando eventuali ulteriori violazioni.
OpenAI non ci sta e definisce sproporzionata la decisione del Garante Privacy
Con una nota ufficiale, OpenAI osserva che – a suo avviso – la decisione del Garante Privacy italiano non sarebbe proporzionata, anticipando l’intenzione di presentare ricorso.
Commenta OpenAI: “quando il Garante ci ha ordinato di sospendere ChatGPT in Italia nel 2023, abbiamo collaborato con l’Autorità per renderlo nuovamente disponibile un mese dopo. Già allora il Garante aveva riconosciuto il nostro ruolo da capofila per quanto riguarda la protezione dei dati nell’ambito dell’IA e questa sanzione rappresenta circa venti volte il fatturato da noi generato in Italia nello stesso periodo. Riteniamo che l’approccio del Garante comprometta le ambizioni dell’Italia in materia di IA, ma rimaniamo impegnati a collaborare con le autorità preposte alla tutela della privacy in tutto il mondo per offrire un’IA capace di portare benefici alla società nel rispetto dei diritti della privacy“.
Le modifiche apportate su ChatGPT e le modalità di addestramento dei modelli generativi
Nelle considerazioni elaborate da OpenAI si fa presente che l’indagine del Garante si concentra sul periodo novembre 2022 – marzo 2023. Nel frattempo, però, l’azienda ha posto in essere una serie di interventi:
- Il Privacy Center permette agli utenti di indicare le loro preferenze in materia di privacy e scegliere di non utilizzare i loro dati per l’addestramento dell’IA.
- Un’apposita funzionalità dà modo di esportare e cancellare le informazioni personali attraverso ChatGPT, evitando che i contenuti (le conversazioni con il chatbot) possano essere utilizzati per addestrare i modelli.
- La cosiddetta chat temporanea permette di distruggere automaticamente il contenuto di qualunque chat, una volta conclusa la conversazione con ChatGPT.
OpenAI sottolinea inoltre che i modelli generativi devono necessariamente imparare dal mondo circostante per essere utili. Per l’addestramento, OpenAI assicura di usare dati pubblici, che non servono a identificare, tracciare o profilare le persone. L’azienda non contatta nessun soggetto né indirizza loro annunci pubblicitari.
I modelli sono inoltre congegnati in maniera tale da rifiutare le richieste di informazioni relative a dati privati o sensibili sulle persone, anche se disponibili online tramite i motori di ricerca.