Chi utilizza ChatGPT per il supporto emotivo o come “terapista” personale dovrebbe pensarci due volte prima di affidargli i propri segreti piรน intimi. Sam Altman, CEO di OpenAI, ha avvertito infatti che non esiste ancora una protezione legale per le conversazioni con l’intelligenza artificiale su argomenti “sensibili”. Cosa che avviene invece nel rapporto tra medico e paziente o tra avvocato e cliente.
ChatGPT non รจ nรฉ un terapista nรฉ un confidente
Durante un episodio del podcast This Past Weekend, Altman ha ricordato l’assenza di un quadro normativo che garantisca la confidenzialitร tra utenti e AI. Le persone raccontano a ChatGPT le cose piรน personali delle loro vite rivelando relazioni, problemi e decisioni difficili. Ma, a differenza di un terapista o di un avvocato, non esiste alcun limite legale che protegga queste conversazioni.
Una lacuna normativa di questo tipo potrebbe rappresentare un problema molto serio per la privacy, soprattutto quando si parla di procedimenti legali in corso. OpenAI sarebbe obbligata a fornire i dati sulle conversazioni tra utenti e AI se richieste da un tribunale. Una situazione che Altman ritiene assurda in quanto, a suo parere, la compagnia dovrebbe avere lo stesso tipo di tutela di un professionista in carne ed ossa.
Altman chiede piรน tutele legali
Il tema affrontato dal CEO รจ particolarmente urgente dato l’uso sempre piรน diffuso dell’AI per il supporto psicologico, soprattutto da parte degli utilizzatori piรน giovani. OpenAI รจ poi coinvolta in una battaglia legale con il New York Times, che potrebbe obbligarla a conservare milioni di chat degli utenti con l’eccezione di quelli che usano ChatGPT Enterprise.
Sempre secondo Altman, la mancanza di tutele legali potrebbe rallentare l’adozione dell’AI da parte del grande pubblico. Il tutto a vantaggio dei competitor che operano al di fuori degli USA.

