Stando a quanto riportato da alcuni utenti con tanto di screenshot condivisi sul Web, nelle scorse ore ChatGPT avrebbe iniziato a rispondere ai prompt degli utenti formulando degli output spesso del tutto privi di senso. Il malfunzionamento sarebbe stato confermato da OpenAI, la compagnia che ha creato il chatbot a partire dal modello generativo GPT.
Per avere un’idea di quanto avvenuto è possibile fare riferimento al sub-Reddit dedicato a ChatGPT (r/ChatGPT) nel quale sono state pubblicate delle risposte inattese, vere e proprie "allucinazioni", a domande tutto sommato molto semplici dedicate ad argomenti come la musica, la filosofia, l’informatica o addirittura la ricetta dei pomodori secchi.
ChatGPT has meltdown and starts sending alarming messages to usershttps://t.co/4kjHbHhmvT
— The Independent (@Independent) February 21, 2024
In alcuni casi la piattaforma avrebbe risposto ai prompt con termini di senso compiuto ma posizionati del tutto a caso, in altri avrebbe ripetuto tantissime volte la stessa frase, in altri ancora avrebbe mixato in modo del tutto immotivato parole appartenenti a lingue differenti. Tutti comportamenti che non ci si aspetterebbe da quella che è appunto un’"intelligenza" artificiale.
Accortisi del problema, Sam Altman e soci sarebbero intervenuti abbastanza rapidamente, assicurando inoltre che il chatbot sarebbe stato messo sotto stretto controllo per evitare il verificarsi di episodi simili. Ad oggi però non sarebbe stata fornita una spiegazione vera e propra di quanto avvenuto né sarebbe noto il numero di utilizzatori coinvolti.
L’accaduto ha sicuramente un suo lato divertente ma anche un risvolto preoccupante. Secondo alcuni analisti è possibile che alla base di tutto vi fosse un bug così come un tentativo di attacco dall’esterno, magari con l’obbiettivo che tra gli outout restituiti casualmente dal sistema vi fossero anche dati sensibili e numeri di carte di credito.