La clonazione della voce umana attraverso l’Intelligenza Artificiale (pratica nota come voice cloning) rischia di diventare la nuova frontiera delle truffe.
Questo è quanto segnalato dalla FTC (Federal Trade Commission) statunitense, che ha lanciato un allarme riguardante un nuovo tipo di scam dai risvolti decisamente inquietanti. Nel caso specifico, i criminali informatici avrebbero iniziato ad utilizzare l’intelligenza artificiale per replicare le voci di amici e parenti delle loro vittime per estorcere denaro.
Attraverso il Deep Learning è possibile riprodurre fedelmente la voce di chiunque
La tecnologia che permette di clonare la voce è basata sul Deep Learning, che utilizza algoritmi di intelligenza artificiale per creare una copia sintetica della voce di una persona, catturando le sue caratteristiche acustiche e linguistiche come il timbro, l’intonazione, il ritmo e il vocabolario. Una volta salvato l’audio di una persona, anche per pochissimi secondi, magari in un video diffuso su un qualsiasi social network o catturato durante un vero colloquio telefonico, i truffatori possono utilizzare programmi specifici (come Murf.ai, Beyondwords, Reespecher, Play.ht, Resemble.ai) per replicare la voce registrata e fare leva sulla fiducia dei destinatari delle telefonate.
Il finto rapimento era solo una sofisticata cybertruffa
Uno dei casi più sconcertanti riguarda una donna statunitense, residente a Scottsdale in Arizona, che ha ricevuto una telefonata in cui la "figlia" (la cui voce in realtà era stata replicata sinteticamente) chiedeva aiuto disperatamente alla madre implorando di salvarla da un rapimento. Un individuo ha poi minacciato la donna raccontandole cosa avrebbe fatto alla figlia se lei non avesse pagato. In questo caso, la vittima della truffa ha dichiarato di non aver avuto alcun dubbio che fosse la voce della figlia pertanto, in preda al panico, ha accolto le richieste dei truffatori. Ovviamente non c’era stato alcun rapimento ma si trattava semplicemente di una sofisticata cybertruffa.
E’ necessario mettere in atto delle contromisure
Questa tecnologia di clonazione della voce umana rappresenta un grave rischio per la sicurezza e il problema sembra destinato a crescere con l’aumentare della diffusione di tecnologie di AI. È importante che le istituzioni, le aziende e le persone prevedano nuove "misure di sicurezza" efficaci per proteggere i propri dati e la propria privacy, al fine di evitare di diventare vittime di queste truffe.
Il voice cloning ha anche dei risvolti positivi
Ovviamente il voice cloning non deve essere necessariamente identificato come qualcosa di negativo. Ci sono ambiti e situazioni in cui la clonazione della voce umana può avere riflessi positivi sula vita delle persone. Si pensi, ad esempio, all’ambito medico in cui, attraverso queste tecniche, sarà possibile "ridare" la voce a persone affette da patologie che inficiano le capacità comunicative mantenendo intatta la loro identità vocale. Altri ambiti di utilizzo "legittimi" potrebbero essere il cinema (in cui grazie all’AI si potrebbe riprodurre la voce di attori scomparsi) il turismo o l’education (attraverso la generazione di avatar che riproducono aspetto e voce di personaggi fisicamente non presenti sul luogo).
Dal punto di vista economico il business del voice cloning, secondo le previsioni degli economisti, potrebbe sfiorare i 2 miliardi di fatturato entro i prossimi sei anni con un +75% sul 2019.