La memoria di Meta AI è un rischio per la privacy?

Secondo un’inchiesta condotta recentemente dal Washington Post, l’applicazione di Meta AI, introdotta da Menlo Park nelle sue piattaforme e già utilizzata da quasi un miliardo di utenti ogni mese, presenterebbe delle lacune importanti nella gestione dei dati sensibili.

Meta AI ricorda tutto, ma proprio tutto

Il giornalista Geoffrey Fowler ha testato il comportamento della funzionalità “Memory” dell’app, facendo emergere un aspetto preoccupante. Meta registrerebbe infatti informazioni sensibili come quelle relative a fertilità o prestiti personali, nonostante affermi di cercare di evitarlo. A differenza di concorrenti come ChatGPT di OpenAI o Gemini di Google, Meta AI non permette agli utenti di disattivare la memoria o di eliminare in modo semplice le conversazioni precedenti.

Pubblicità

Non esiste neppure una modalità temporanea che consenta di avviare una chat priva di tracciamento, opzione che è invece disponibile su altre piattaforme. L’unica soluzione (parziale) è quella di utilizzare Meta AI da browser web senza effettuare il login. Una procedura tutt’altro che pratica.

L’aspetto più critico riguarderebbe non solo la profilazione pubblicitaria, con il rischio di ricevere annunci personalizzati su argomenti molto delicati, ma anche la possibilità che le conversazioni vengano usate per addestrare i modelli di AI alimentando un ciclo di raccolta e utilizzo dei dati molto invasivo.

Le conclusioni dell’inchiesta

Con una diffusione sempre più capillare degli assistenti AI integrati nelle piattaforme social, di messaggistica e di lavoro, la trasparenza sulle modalità di raccolta dati e la possibilità di controllo da parte dell’utente diventano fondamentali ma non sempre sono facilmente accessibili. Secondo il Washington Post Meta sarebbe ancora ben lontana dal poter offrire delle garanzie complete in questo senso.

Se da un lato gli assistenti basati sull’intelligenza artificiale, come appunto quella di Meta AI, promettono UX più personalizzate, dall’altro impongono agli utenti di vigilare sempre più attentamente su ciò che condividono durante le proprie interazioni online.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meta AI introduce shopping research per competere con ChatGPT e Gemini

Meta sta avviando una nuova iniziativa nel suo chatbot,...

L’US Air Force rivoluziona i droni con software AI in volo

L'US Air Force ha recentemente compiuto un'importante innovazione nel...

Anthropic accusa le cinesi DeepSeek, Moonshot e MiniMax di “distillazione” del modello Claude

Recentemente, Anthropic ha lanciato accuse gravi contro tre aziende...

ChatGPT introduce l’opzione ‘Naughty chats’ per adulti

OpenAI sta ridefinendo il ruolo degli assistenti digitali con...

Prompt injection e SEO “tossica”: come si manipolano i chatbot

Un recente esperimento ha riportato l'attenzione su una vulnerabilità...

Donna accusata di pianificare omicidi con ChatGPT

In Corea del Sud una donna di 21 anni...
Pubblicità