/https://www.ilsoftware.it/app/uploads/2024/12/3-11.jpg)
I modelli di Intelligenza Artificiale sono tutt’altro che infallibili e, nel corso degli ultimi mesi, diverse volte si sono dimostrati propensi ad allucinazioni. Quando avvenuto a un uomo norvegese, chiamato Arve Hjalmar Holmen, è il chiaro esempio di tale situazione.
Holmen, dopo aver cercato informazioni su se stesso attraverso ChatGPT, si è sentito rispondere che è stato incarcerato per 21 anni per aver ucciso i propri figli. Secondo quanto sostenuto dalla BBC l’uomo ha sporto denuncia, chiedendo i danni a OpenAI.
Il noto chatbot, riguardo Holmen, spiegava come lo stesso fosse padre di due bambini, rispettivamente di 7 e 10 anni, e di come questi sono stati trovati morti in uno stagno vicino alla loro casa, nei pressi di Trondheim, nel 2020. Secondo ChatGPT, l’uomo sarebbe stato accusato e poi condannato per l’omicidio degli stessi.
A rendere ancora più impressionante la ricostruzione vi è il fatto che il chatbot è sceso nei dettagli, spiegando come “Il caso ha scioccato la comunità locale e nazionale, venendo trattato ampiamente dai media per la sua natura tragica“. Unico problema? Questa notizia è stata completamente inventata da ChatGPT.
ChatGPT e allucinazioni: in certi casi i disclaimer non bastano
Il gruppo per i diritti digitali Noyb ha presentato denuncia per conto di Holmen, affermando che la risposta del chatbot non solo è diffamatoria ma viola anche le norme europee sulla protezione dei dati. Noyb ha affermato che Holmen non è mai stati neanche accusato di alcun crimine.
Va detto che ChatGPT adotta un disclaimer che sostiene come il chatbot possa commettere errori e come non sia affidabile quando si tratta di informazioni importanti. Secondo i legali, questa sorta di manleva non è però sufficiente rispetto a quanto accaduto.
Secondo quanto riportato dalla BBC, OpenAI ha aggiornato il suo strumento eliminando le informazioni false su Holmen, ma questo non vuol dire che presto potrebbero ripresentarsi casi simili.