ChatGPT ha accusato ingiustamente un uomo di aver ucciso i propri figli

La clamorosa allucinazione di ChatGPT, uomo norvegese accusato ingiustamente di aver ucciso i suoi due figli: cosa è successo?
ChatGPT ha accusato ingiustamente un uomo di aver ucciso i propri figli

I modelli di Intelligenza Artificiale sono tutt’altro che infallibili e, nel corso degli ultimi mesi, diverse volte si sono dimostrati propensi ad allucinazioni. Quando avvenuto a un uomo norvegese, chiamato Arve Hjalmar Holmen, è il chiaro esempio di tale situazione.

Holmen, dopo aver cercato informazioni su se stesso attraverso ChatGPT, si è sentito rispondere che è stato incarcerato per 21 anni per aver ucciso i propri figli. Secondo quanto sostenuto dalla BBC l’uomo ha sporto denuncia, chiedendo i danni a OpenAI.

Il noto chatbot, riguardo Holmen, spiegava come lo stesso fosse padre di due bambini, rispettivamente di 7 e 10 anni, e di come questi sono stati trovati morti in uno stagno vicino alla loro casa, nei pressi di Trondheim, nel 2020. Secondo ChatGPT, l’uomo sarebbe stato accusato e poi condannato per l’omicidio degli stessi.

A rendere ancora più impressionante la ricostruzione vi è il fatto che il chatbot è sceso nei dettagli, spiegando come “Il caso ha scioccato la comunità locale e nazionale, venendo trattato ampiamente dai media per la sua natura tragica“. Unico problema? Questa notizia è stata completamente inventata da ChatGPT.

ChatGPT e allucinazioni: in certi casi i disclaimer non bastano

Il gruppo per i diritti digitali Noyb ha presentato denuncia per conto di Holmen, affermando che la risposta del chatbot non solo è diffamatoria ma viola anche le norme europee sulla protezione dei dati. Noyb ha affermato che Holmen non è mai stati neanche accusato di alcun crimine.

Va detto che ChatGPT adotta un disclaimer che sostiene come il chatbot possa commettere errori e come non sia affidabile quando si tratta di informazioni importanti. Secondo i legali, questa sorta di manleva non è però sufficiente rispetto a quanto accaduto.

Secondo quanto riportato dalla BBC, OpenAI ha aggiornato il suo strumento eliminando le informazioni false su Holmen, ma questo non vuol dire che presto potrebbero ripresentarsi casi simili.

Ti consigliamo anche

Link copiato negli appunti