ChatGPT Health: il pericolo di sottovalutare le emergenze mediche

Un recente studio indipendente ha sollevato serie preoccupazioni sulla capacità di ChatGPT Health di riconoscere le emergenze mediche. La ricerca, condotta dagli esperti del Mount Sinai Hospital, ha rivelato che il chatbot di OpenAI non identifica correttamente oltre la metà delle situazioni che richiederebbero un intervento immediato, suggerendo invece di restare a casa o di prenotare una visita non urgente.

Il risultato dello studio su ChatGPT Health

Il team di ricerca ha formulato 60 scenari clinici, coprendo una gamma che va da disturbi lievi a condizioni potenzialmente fatali, per testare la risposta di ChatGPT Health. Attraverso l’aggiunta di variabili come il sesso del paziente e le osservazioni di amici e familiari, sono stati creati quasi mille scenari totali. Le risposte del chatbot sono state poi confrontate con quelle di medici esperti.

Pubblicità

Il risultato è allarmante: nel 50% dei casi gravi, ChatGPT ha consigliato di rimanere a casa, mentre nel 64% delle situazioni in cui non erano richieste cure immediate, il chatbot ha suggerito di recarsi al pronto soccorso. Questo disallineamento tra le risposte del chatbot e le necessità di emergenza è motivo di grande preoccupazione.

Il rischio di un falso senso di sicurezza

Una delle criticità più gravi emerse dallo studio è il falso senso di sicurezza generato da ChatGPT Health. Quando un paziente riceve rassicurazioni in situazioni di emergenza, come un attacco d’asma o una crisi diabetica, potrebbe ritardare l’accesso a cure cruciali. Questo può avere conseguenze fatali, specialmente per coloro che non valutano correttamente la gravità dei propri sintomi.

L’influenza di familiari e amici sulle risposte

Un altro aspetto preoccupante riguarda l’influenza di terze parti sulle risposte di ChatGPT Health. Quando un amico simulato o lo stesso paziente minimizzavano i sintomi, il chatbot tendeva a sottovalutare la gravità della situazione. Questo comportamento mette in evidenza un potenziale difetto nel sistema, progettato per fornire consigli sanitari, che non dovrebbe essere influenzato da rassicurazioni esterne.

Contraddizioni nel messaggio di OpenAI

OpenAI ha risposto alle critiche dichiarando che lo studio malinterpreta l’uso reale di ChatGPT Health. Tuttavia, l’azienda stessa avverte nel disclaimer di non utilizzare il chatbot per diagnosi o trattamenti, creando una contraddizione che potrebbe avere implicazioni legali significative in futuro. Attualmente, OpenAI affronta diverse cause legali per danni psicologici legati all’uso di ChatGPT, inclusi casi di suicidio e psicosi indotta dall’IA.

Le implicazioni future dell’IA in ambito sanitario

Con la crescente integrazione dell’ intelligenza artificiale nei servizi sanitari, è fondamentale garantire che i sistemi come ChatGPT Health siano in grado di fornire informazioni accurate e sicure. L’uso di chatbot per la consulenza medica deve essere regolamentato con attenzione per evitare che le persone si affidino a consigli inadeguati, con potenziali conseguenze letali. La responsabilità degli sviluppatori di queste tecnologie è cruciale per il futuro della salute pubblica.

In un momento in cui l’IA gioca un ruolo sempre più rilevante nella nostra vita quotidiana, è essenziale che gli utenti siano consapevoli dei limiti e dei rischi associati all’uso di chatbot per la salute. I professionisti del settore devono lavorare per migliorare la formazione e l’affidabilità di questi sistemi, garantendo che possano supportare, ma non sostituire, il giudizio clinico umano.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Xiaomi Miclaw: il nuovo agente AI per smartphone in fase beta

Xiaomi ha recentemente annunciato l'avvio delle beta private per...

OpenAI Codex Security: l’agente AI che identifica le vulnerabilità nel software

OpenAI ha recentemente presentato Codex Security, un agente innovativo...

OpenAI rinvia la modalità adulti di ChatGPT: nuove priorità per l’IA

OpenAI ha recentemente annunciato un ulteriore rinvio della modalità...

L’impatto dell’IA sul lavoro: analisi di Anthropic dopo ChatGPT

Con l'emergere di ChatGPT alla fine del 2022, la...

InstallFix: la nuova minaccia informatica che sfrutta Claude Code di Anthropic

Negli ultimi anni, la popolarità dell'intelligenza artificiale ha portato...

Samsung presenta occhiali smart con IA: sfida a Ray-Ban Meta

Samsung è pronta a lanciare i suoi nuovi occhiali...
PubblicitÃ