In Corea del Sud una donna di 21 anni è stata accusata di aver pianificato due omicidi utilizzando ChatGPT per ottenere informazioni sui rischi legati alla somministrazione di farmaci sedativi combinati con l’alcol.
Le accuse delle autorità coreane
Secondo quanto riportato da The Korea Herald e BBC, gli investigatori sosterrebbero che l’indagata abbia posto al chatbot domande specifiche sugli effetti di sonniferi assunti insieme a bevande alcoliche. Nello specifico chiedendo quali quantità potessero risultare pericolose o potenzialmente letali. Le autorità ritengono che tali ricerche dimostrino una premeditazione.
La donna era stata arrestata inizialmente con l’accusa di lesioni personali con esito mortale, ma l’imputazione è stata successivamente aggravata a duplice omicidio. Gli inquirenti affermano che l’analisi delle sue attività online avrebbe evidenziato una consapevolezza dei rischi connessi alla combinazione di benzodiazepine e alcol.
I presunti omicidi sarebbero avvenuti tra fine gennaio e inizio febbraio in motel dell’area metropolitana di Seul. In entrambi i casi, le vittime, uomini ventenni, sarebbero state drogate con bevande contenenti farmaci prescritti alla donna per una patologia psichiatrica. Un precedente tentativo di avvelenamento ai danni di un partner sarebbe invece fallito.
L’accusata avrebbe ammesso di aver miscelato i medicinali nelle bevande, ma negato l’intenzione di uccidere.
Qual è la responsabilità delle piattaforme?
Alcuni esperti sottolineano come i sistemi di moderazione dei chatbot AI come ChatGPT possano essere aggirati attraverso delle conversazioni prolungate o formulazioni ambigue.
Di recente il Wall Street Journal ha riportato che OpenAI avrebbe rilevato delle interazioni problematiche con un giovane canadese prima di una sparatoria di massa nella Columbia Britannica, senza però allertare le autorità . L’episodio ha quindi inferocito il confronto pubblico sulla responsabilità delle aziende nel monitoraggio dei contenuti generati dagli utenti.
Il procedimento contro la donna potrebbe diventare un precedente rilevante nel definire il perimetro di responsabilità tra utente e fornitore di tecnologia, questo in un momento in cui l’adozione dell’AI continua a crescere rapidamente in tutto il mondo.

