Negli corso degli ultimi mesi OpenAI ha intensificato il dialogo con esperti, associazioni e politici per rafforzare la sicurezza degli utenti di ChatGPT, con particolare attenzione ai più giovani. L’obiettivo è quello di garantire che l’intelligenza artificiale si adatti all’età degli utenti, offrendo risposte e funzionalità coerenti con il loro livello di maturità.
Age verification ed esperienze differenziate a seconda dell’età
A questo proposito, uno degli sviluppi più interessanti riguarda la creazione di un sistema di verifica, o per meglio dire di “predizione” dell’età, pensato per distinguere tra utenti sopra e sotto i 18 anni.
Questo processo permetterà di modulare l’esperienza in base all’età: per i minori saranno applicate politiche più restrittive, come il blocco di contenuti sessualmente espliciti e l’attivazione di procedure di sicurezza in caso di situazioni di grave disagio psicologico. Nel caso in cui il sistema non sia in grado di determinare con certezza l’età, verrà adottato un approccio prudenziale trattando l’utente come un minorenne. Con la possibilità per gli adulti di fornire prove della propria età per sbloccare funzionalità aggiuntive.
Parental control per ChatGPT
In attesa dello sviluppo dei sistemi di predizione dell’età OpenAI introdurrà entro breve dei controlli parentali pensati per le famiglie in ChatGPT. Questi consentiranno di collegare l’account di un genitore a quello del figlio (dai 13 anni in su) tramite invito via email, di configurare regole specifiche per l’interazione con il modello e di limitare funzionalità come memoria e cronologia chat.
Sarà inoltre possibile ricevere notifiche in caso di rilevamento di stati di forte disagio e impostare fasce orarie di inattività. In casi eccezionali, e solo se i genitori non dovessero essere reperibili, potrà essere coinvolta l’autorità competente per garantire la sicurezza del minore.

