Un recente studio indipendente ha sollevato serie preoccupazioni sulla capacità di ChatGPT Health di riconoscere le emergenze mediche. La ricerca, condotta dagli esperti del Mount Sinai Hospital, ha rivelato che il chatbot di OpenAI non identifica correttamente oltre la metà delle situazioni che richiederebbero un intervento immediato, suggerendo invece di restare a casa o di prenotare una visita non urgente.
Il risultato dello studio su ChatGPT Health
Il team di ricerca ha formulato 60 scenari clinici, coprendo una gamma che va da disturbi lievi a condizioni potenzialmente fatali, per testare la risposta di ChatGPT Health. Attraverso l’aggiunta di variabili come il sesso del paziente e le osservazioni di amici e familiari, sono stati creati quasi mille scenari totali. Le risposte del chatbot sono state poi confrontate con quelle di medici esperti.
Il risultato è allarmante: nel 50% dei casi gravi, ChatGPT ha consigliato di rimanere a casa, mentre nel 64% delle situazioni in cui non erano richieste cure immediate, il chatbot ha suggerito di recarsi al pronto soccorso. Questo disallineamento tra le risposte del chatbot e le necessità di emergenza è motivo di grande preoccupazione.
Il rischio di un falso senso di sicurezza
Una delle criticità più gravi emerse dallo studio è il falso senso di sicurezza generato da ChatGPT Health. Quando un paziente riceve rassicurazioni in situazioni di emergenza, come un attacco d’asma o una crisi diabetica, potrebbe ritardare l’accesso a cure cruciali. Questo può avere conseguenze fatali, specialmente per coloro che non valutano correttamente la gravità dei propri sintomi.
L’influenza di familiari e amici sulle risposte
Un altro aspetto preoccupante riguarda l’influenza di terze parti sulle risposte di ChatGPT Health. Quando un amico simulato o lo stesso paziente minimizzavano i sintomi, il chatbot tendeva a sottovalutare la gravità della situazione. Questo comportamento mette in evidenza un potenziale difetto nel sistema, progettato per fornire consigli sanitari, che non dovrebbe essere influenzato da rassicurazioni esterne.
Contraddizioni nel messaggio di OpenAI
OpenAI ha risposto alle critiche dichiarando che lo studio malinterpreta l’uso reale di ChatGPT Health. Tuttavia, l’azienda stessa avverte nel disclaimer di non utilizzare il chatbot per diagnosi o trattamenti, creando una contraddizione che potrebbe avere implicazioni legali significative in futuro. Attualmente, OpenAI affronta diverse cause legali per danni psicologici legati all’uso di ChatGPT, inclusi casi di suicidio e psicosi indotta dall’IA.
Le implicazioni future dell’IA in ambito sanitario
Con la crescente integrazione dell’ intelligenza artificiale nei servizi sanitari, è fondamentale garantire che i sistemi come ChatGPT Health siano in grado di fornire informazioni accurate e sicure. L’uso di chatbot per la consulenza medica deve essere regolamentato con attenzione per evitare che le persone si affidino a consigli inadeguati, con potenziali conseguenze letali. La responsabilità degli sviluppatori di queste tecnologie è cruciale per il futuro della salute pubblica.
In un momento in cui l’IA gioca un ruolo sempre più rilevante nella nostra vita quotidiana, è essenziale che gli utenti siano consapevoli dei limiti e dei rischi associati all’uso di chatbot per la salute. I professionisti del settore devono lavorare per migliorare la formazione e l’affidabilità di questi sistemi, garantendo che possano supportare, ma non sostituire, il giudizio clinico umano.

