I genitori di Adam Raine, un sedicenne californiano morto suicida lo scorso aprile, avrebbero citato in giudizio OpenAI e il CEO Sam Altman accusando l’azienda di aver anteposto i profitti alla sicurezza degli utenti nel lancio del modello GPT-4o per il chatbot ChatGPT.
Il caso e la posizione di OpenAI
Stando a quanto riportato da Reuters, secondo la causa depositata presso il tribunale statale di San Francisco Adam Raine sarebbe morto l’11 aprile 2025 dopo aver discusso per mesi di suicidio con ChatGPT. I genitori sosterrebbero che il chatbot abbia validato i pensieri suicidi del figlio fornendo informazioni dettagliate sui metodi di autolesionismo e istruzioni su come nascondere le prove di un tentativo di fallito di togliersi la vita.
Le accuse piรน gravi riguarderebbero il fatto che ChatGPT avrebbe offerto di redigere una lettera di addio per l’adolescente e consigliato come sottrarre alcolici dalla credenza dei genitori.
Un portavoce di OpenAI ha espresso tristezza per la morte di Raine, sottolineando che ChatGPT include sistemi di sicurezza come l’indirizzamento degli utenti verso linee di crisi. L’azienda avrebbe perรฒ riconosciuto che questi sistemi possono talvolta diventare meno affidabili in interazioni prolungate dove parti dell’addestramento di sicurezza del modello potrebbero degradarsi.
OpenAI ha annunciato inoltre dei piani per rafforzare i controlli parentali e starebbe valutando ulteriori modi per connettere gli utenti in crisi con risorse utili, inclusa la possibile creazione di una rete di professionisti che possano rispondere attraverso ChatGPT stesso.
Le richieste legali
La causa punterebbe a ritenere OpenAI responsabile di morte per negligenza e violazioni delle leggi sulla sicurezza dei prodotti. I Raine avrebbero richiesto inoltre un ordine che obblighi OpenAI a verificare l’etร degli utenti di ChatGPT, rifiutare richieste sui metodi di autolesionismo e avvertire gli utenti sui rischi di dipendenza psicologica.
I genitori sosterrebbero che OpenAI sapeva che le funzionalitร di GPT-4o che ricordano le interazioni passate e mostrano un livello di validazione compiacente avrebbero messo in pericolo gli utenti piรน vulnerabili.

