Stando a quanto affermato da due ex membri del consiglio d’amministrazione di OpenAI, la società non è affidabile ed è necessaria una regolamentazione esterna per tenere sotto controllo il suo operato.
Stiamo parlando di Helen Toner e Tasha McCauley, membri del consiglio di OpenAI fino allo scorso novembre, momento in cui la startup è stata colpita da un vero e terremoto, con tanto di allontanamento e riavvicinamento di Sam Altman.
Toner e McCauley, sono rimaste fedeli all’idea di rimuovere il cofondatore di OpenAI, sostenendo come il leader dell’azienda, implicato in comportamenti considerabili come abuso psicologico. In una dichiarazione congiunta, le due esperte di IA si sono espresse in questo modo “Riteniamo inoltre che gli sviluppi da quando è tornato in azienda, inclusa la sua reintegrazione nel consiglio di amministrazione e la partenza di talenti senior focalizzati sulla sicurezza, siano di cattivo auspicio per l’esperimento di autogoverno di OpenAI“.
Semplici dissidi interni o un reale allarme? Secondo Toner e McCauley la situazione è grave, visto che sostengono come i governi dovrebbero intervenire subito per delineare quadri normativi efficaci.
OpenAI non è affidabile? La posizione della società la pone al centro di potenziali polemiche
Per le due esperte è fondamentale che i politici non si facciano trovare impreparati, creando nuove regole capaci di evitare “scappatoie” e cavilli che potrebbero avere impatti devastati sull’uso, o meglio abuso, dell’IA.
Allo stato attuale in consiglio di OpenAI include, oltre al già citato Altman, anche amministratori delegati di grandi brand tecnologici, da Sundar Pichai di Alphabet fino a Jensen Huang di Nvidia.
Sebbene nel consiglio figurino anche rappresentanti di organizzazioni no-profit, appare chiaro come i colossi del settore abbiano un livello di influenza elevatissimo nello sviluppo di queste nuove tecnologie. Nonostante alcune iniziative come l’AI Act, di fatto, la situazione resta spinosa e, sicuramente, fonte di grandi discussioni in futuro.