OpenAI ha lanciato una nuova funzionalità per ChatGPT, chiamata ‘Trusted Contact’, progettata per migliorare la sicurezza degli utenti. Questa opzione permette di notificare una persona di fiducia, come un familiare o un amico, nel caso in cui il sistema rilevi segnali di autolesionismo o suicidio.
Un passo avanti nella sicurezza digitale
La funzione ‘Trusted Contact’ rappresenta un ulteriore livello di supporto, complementando i servizi di assistenza già esistenti nella piattaforma. Secondo OpenAI, questo strumento è stato sviluppato con il contributo di esperti, tra cui medici e ricercatori del Global Physician’s Network e del Well-Being Council, per garantire un approccio professionale e sicuro.
Come funziona la funzionalità ‘Trusted Contact’
Attivare questa funzione è semplice: l’utente può aggiungere un contatto fidato nelle impostazioni del proprio account. È fondamentale che la persona scelta accetti esplicitamente di stabilire questo collegamento. Una volta attivata, la funzione consente a ChatGPT di inviare notifiche alla persona di fiducia se vengono rilevati segnali preoccupanti per la sicurezza dell’utente.
È importante notare che le notifiche non includeranno trascrizioni delle chat né dettagli delle conversazioni private. Questo è un aspetto cruciale per garantire la privacy e la confidenzialità degli utenti, mantenendo al contempo un livello di vigilanza per la loro sicurezza.
Un parallelo con il controllo parentale
La funzionalità di ‘Trusted Contact’ si basa su meccanismi simili a quelli utilizzati nei sistemi di controllo parentale. Questi sistemi consentono ai genitori o ai tutori di ricevere avvisi quando ci sono segni di grave disagio nei profili degli adolescenti. Tuttavia, ‘Trusted Contact’ si estende a tutti gli utenti over 18, offrendo una rete di supporto personalizzata e flessibile.
Implicazioni per l’intelligenza artificiale e la salute mentale
L’introduzione di ‘Trusted Contact’ da parte di OpenAI segna un’importante evoluzione nell’uso dell’intelligenza artificiale per il supporto della salute mentale. In un contesto in cui le interazioni digitali sono sempre più diffuse, è fondamentale che le piattaforme come ChatGPT adottino misure proattive per la sicurezza degli utenti.
Questo sviluppo non solo evidenzia la responsabilità delle aziende tecnologiche nel gestire contenuti sensibili, ma sottolinea anche l’importanza di integrare esperti del settore nella creazione di funzionalità che possono avere un impatto diretto sulla vita delle persone.

