ChatGPT introduce la funzione ‘Trusted Contact’ per la sicurezza degli utenti

OpenAI ha lanciato una nuova funzionalità per ChatGPT, chiamata ‘Trusted Contact’, progettata per migliorare la sicurezza degli utenti. Questa opzione permette di notificare una persona di fiducia, come un familiare o un amico, nel caso in cui il sistema rilevi segnali di autolesionismo o suicidio.

Un passo avanti nella sicurezza digitale

La funzione ‘Trusted Contact’ rappresenta un ulteriore livello di supporto, complementando i servizi di assistenza già esistenti nella piattaforma. Secondo OpenAI, questo strumento è stato sviluppato con il contributo di esperti, tra cui medici e ricercatori del Global Physician’s Network e del Well-Being Council, per garantire un approccio professionale e sicuro.

Pubblicità

Come funziona la funzionalità ‘Trusted Contact’

Attivare questa funzione è semplice: l’utente può aggiungere un contatto fidato nelle impostazioni del proprio account. È fondamentale che la persona scelta accetti esplicitamente di stabilire questo collegamento. Una volta attivata, la funzione consente a ChatGPT di inviare notifiche alla persona di fiducia se vengono rilevati segnali preoccupanti per la sicurezza dell’utente.

È importante notare che le notifiche non includeranno trascrizioni delle chat né dettagli delle conversazioni private. Questo è un aspetto cruciale per garantire la privacy e la confidenzialità degli utenti, mantenendo al contempo un livello di vigilanza per la loro sicurezza.

Un parallelo con il controllo parentale

La funzionalità di ‘Trusted Contact’ si basa su meccanismi simili a quelli utilizzati nei sistemi di controllo parentale. Questi sistemi consentono ai genitori o ai tutori di ricevere avvisi quando ci sono segni di grave disagio nei profili degli adolescenti. Tuttavia, ‘Trusted Contact’ si estende a tutti gli utenti over 18, offrendo una rete di supporto personalizzata e flessibile.

Implicazioni per l’intelligenza artificiale e la salute mentale

L’introduzione di ‘Trusted Contact’ da parte di OpenAI segna un’importante evoluzione nell’uso dell’intelligenza artificiale per il supporto della salute mentale. In un contesto in cui le interazioni digitali sono sempre più diffuse, è fondamentale che le piattaforme come ChatGPT adottino misure proattive per la sicurezza degli utenti.

Questo sviluppo non solo evidenzia la responsabilità delle aziende tecnologiche nel gestire contenuti sensibili, ma sottolinea anche l’importanza di integrare esperti del settore nella creazione di funzionalità che possono avere un impatto diretto sulla vita delle persone.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Una ventenne di Venezia in cura per dipendenza da intelligenza artificiale

A Venezia, un caso di dipendenza comportamentale da intelligenza...

Anthropic e la lettura dei pensieri di Claude: un passo avanti nell’AI

Anthropic ha recentemente introdotto una tecnologia innovativa che promette...

OpenAI lancia GPT-5.5-Cyber: la nuova frontiera dell’AI per la sicurezza informatica

OpenAI ha recentemente annunciato il lancio di GPT-5.5-Cyber, una...

Imparare a programmare nell’era dell’AI: perché è ancora fondamentale

Con l'emergere di strumenti avanzati come ChatGPT e Claude,...

Dipendenti di Google DeepMind si oppongono all’uso militare dell’AI

I dipendenti di Google DeepMind hanno lanciato un chiaro...
Pubblicità