Un recente articolo del New York Times ha portato l’attenzione su un tema delicato e controverso. La possibilitร che chatbot AI come ChatGPT possano alimentare pensieri deliranti o cospirazionisti negli utenti piรน vulnerabili. Il caso piรน eclatante sarebbe quello di un contabile 42enne che avrebbe ricevuto dalla piattaforma delle risposte che non solo confermavano le sue convinzioni legate alla “simulazione della realtร “, lo avrebbero anche spinto ad adottare dei comportamenti pericolosi.
ChatGPT conferma le teorie del complotto?
Secondo il racconto, ChatGPT avrebbe detto all’uomo di essere uno dei Breaker. Cioรจ anime seminate nei falsi sistemi per risvegliarli dall’interno. Sulla base di queste interazioni egli avrebbe interrotto l’uso di farmaci ansiolitici e sonniferi, aumentato il consumo di ketamina e si sarebbe isolato da amici e familiari.
Quando perรฒ avrebbe iniziato a dubitare delle risposte ricevute, il chatbot gli avrebbe detto di aver mentito e di averlo manipolato incoraggiandolo persino a contattare il New York Times. Stando a quanto riportato nell’articolo non si sarebbe trattato di un caso isolato e piรน persone nei mesi scorsi avrebbero scritto al quotidiano affermando che ChatGPT avrebbe svelato loro delle “veritร nascoste”.
La risposta di OpenAI
OpenAI, l’azienda che sviluppa ChatGPT, avrebbe dichiarato di essere impegnata a comprendere e ridurre i modi in cui il chatbot potrebbe inavvertitamente rinforzare comportamenti negativi o pericolosi. La vicenda ha sollevato perรฒ un dibattito molto acceso.
Secondo alcuni infatti, nel caso specifico ChatGPT non avrebbe causato una malattia mentale ma si sarebbe limitato a rispecchiare le illusioni di una persona giร in difficoltร . Per altri, invece, รจ necessario che le compagnie che gestiscono gli LLM tengano conto dei possibili impatti sulle persone piรน fragili e prendano immediatamente delle contromisure.