Gli sviluppatori della Casa di Cupertino hanno reso noto lo sviluppo di una nuova tecnologia in grado di effettuare un controllo sulle immagini inviate ad iCloud e di confrontarle con quelle presenti all’interno del NCMEC (National Center for Missing & Exploited Children), tale attività sarà finalizzata alla lotta contro gli abusi sui minori.
Alla base di questa feature dovrebbe esserci NeuralHash, soluzione appositamente concepita sia per la tutela della privacy che per la CSAM (Child Sexual Abuse Material) Detection. Il controllo dovrebbe avvenire invece direttamente nei dispositivi di Apple come l’iPhone (e non solo) in seguito al rilascio degli aggiornamenti iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.
Per il momento tale novità dovrebbe riguardare soltanto gli Stati Uniti, realtà dove le normative sul trattamento dei dati personali sono meno restrittive rispetto a quelle europee, nonostante ciò l’iniziativa avrebbe già suscitato numerose polemiche in virtù del fatto che, oltre al pericolo di falsi positivi, secondo i contestatori essa introdurrebbe un ulteriore elemento a favore del tecnocontrollo.
A livello tecnico NeuralHash dovrebbe funzionare tramite la disattivazione della crittografia end-to-end e questo particolare avrebbe portato al levarsi di alcune voci contrarie tra cui quella di WhatsApp, per bocca del CEO Will Cathcart, secondo cui una tecnologia di questo genere non farebbe altro che introdurre un nuovo sistema con cui sorvegliare gli utenti.
Dello stesso parere sarebbe anche l’ex contractor dell’NSA Edward Snowden che, pur non dubitando delle buone intenzioni di Tim Cook e soci, avrebbe paventato il pericolo che NeuralHash possa portare alla creazione di una vera e propria sorveglianza di massa a livello mondiale. Si tratta infatti di una tecnologia che, almeno virtualmente, potrebbe essere utilizzata per qualsiasi tipo di attività di spionaggio.