ChatGPT in tilt: il chatbot AI fornisce risposte mescolando lingue e inventando parole

Parole inventate e/o ripetute innumerevoli volte e mix di lingue diverse nelle risposte: sono state ore da incubo per ChatGPT e gli utenti che usano il bot AI.

I social network (principalmente X) sono stati inondati dalle segnalazioni di utenti che hanno notato un comportamento a dir poco anomalo di ChatGPT, il chatbot AI di OpenAI. Quest’ultimo è andato letteralmente in tilt, e lo dimostra il fatto che per ore ha fornito risposte con parole inventate o addirittura mescolando più lingue, inglese e spagnolo ad esempio. In altri casi invece ha ripetuto la stessa frase (o singola parola) più e più volte, diventando quindi totalmente inutilizzabile.

ChatGPT ha detto cosa senza senso per diverse ore: colpito anche il modello GPT-4

Il bot basato sull’intelligenza artificiale è altamente addestrato e viene migliorato giorno dopo giorno, ma, come sottolineato dalla stessa OpenAI, devono essere tenuti in conto anche degli errori. Nessuno però sia aspettava problemi di questo tipo, dovuti chiaramente ad un bug di cui però non è stata ancora rivelata la causa.

L’anomalia è stata segnalata dai consumatori all’azienda no-profit, che ha così potuto svolgere le dovute indagini. Circa 11 ore fa il problema (“risposte inaspettate“, si legge) è stato identificato e risolto, ma la situazione è ancora in una fase di monitoring.

Di seguito alcune testimonianze condivise su X:

https://twitter.com/seanw_m/status/1760115118690509168

Allarme rientrato, dunque? Sembra proprio di sì, ma il malfunzionamento delle ultime ore ha fatto storcere il naso ad un bel po’ di utenti. Sì, perché il bug ha colpito non solo il modello GPT-3.5 (quello più utilizzato perché alla base della versione gratuita del bot), ma anche il modello GPT-4, ovvero quello della versione a pagamento.

Non è comunque la prima volta che un bot AI perde il senno. Nel febbraio del 2023, ad esempio, c’è stato un momento in cui Microsoft Bing (oggi Copilot) rispondeva in modo strano agli utenti, in alcuni casi offendendoli e accusandoli di essere di essere dei troll. A novembre dello scorso anno, invece, ChatGPT aveva “rivelato” ad alcuni naviganti del web di provenire dal futuro, che era in grado di viaggiare nel tempo e che tra i suoi scopi c’era quello di trovare prove circa l’esistenza di Dio.

Immagine di copertina generata con Copilot

Ti consigliamo anche

Link copiato negli appunti