back to top

ChatGPT può essere utilizzato per truffe telefoniche

Recenti ricerche avrebbero dimostrato come l’API vocale in tempo reale del modello GPT-4o di OpenAI possa essere sfruttata per truffe finanziarie tramite ChatGPT, con tassi di successo moderati. GPT-4o è il modello stabile più recente della compagnia, dotato di capacità avanzate che integrano input e output testuali, vocali e visivi.

Nonostante OpenAI abbia implementato diverse misure di sicurezza per bloccare i contenuti dannosi, inclusa la replica non autorizzata di voci appartenenti a persone reali, alcuni esperti evidenziano come le protezioni attuali non siano ancora sufficienti per evitare del tutto gli abusi.

Pubblicità

L’AI e truffe basate sulla voce

Le truffe basate sulla voce rappresentano già un problema legato ad un “giro d’affari” multimilionario. Nel contempo, l’emergere di tecnologie come il deepfake e gli strumenti di sintesi vocale AI starebbero peggiorando ulteriormente la situazione.

Nel loro studio, i ricercatori dell’Università dell’Illinois (UIUC) Richard Fang, Dylan Bowman e Daniel Kang avrebbero dimostrato che gli strumenti attuali, accessibili senza restrizioni, possono essere sfruttati dai cybercriminali per eseguire operazioni su larga scala. Coprendo così i costi delle operazioni vocali con un investimento minimo.

Lo studio ha analizzato diverse truffe, tra cui trasferimenti bancari, esfiltrazione di buoni regalo, trasferimenti di criptovalute e furti di credenziali per account social o di posta elettronica. Utilizzando strumenti di automazione basati su ChatGPT-4o, i ricercatori hanno creato agenti in grado di navigare tra pagine web, inserire dati e gestire codici di autenticazione a due fattori.

In alcuni casi, per aggirare le protezioni di GPT-4o che rifiutava di elaborare dati sensibili sono state impiegate tecniche di jailbreaking dei prompt.

OpenAI difende ChatGPT

I risultati mostrerebbero che le truffe potrebbero avere tassi di successo variabili, dal 20% al 60%, con un costo medio di 0.75 dollari per azione riuscita. I trasferimenti bancari sarebbero i più complessi e costerebbero in media 2.51 dollari. I furti di credenziali su Gmail avrebbero ottenuto un tasso di successo del 60%, mentre i trasferimenti di criptovalute e i furti di credenziali su Instagram avrebbero funzionato il 40% delle volte.

OpenAI ha risposto affermando di aver migliorato il modello o1-preview per renderlo più resistente a questi abusi, con un tasso di sicurezza del 93% contro il 71% di GPT-4o. Il rischio di utilizzo fraudolento di chatbot vocali come ChatGPT con restrizioni minori rimane comunque reale.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT conferma le teorie del complotto?

Un recente articolo del New York Times ha portato...

OpenAI rilascia o3-pro con capacità di “ragionamento”

OpenAI ha annunciato il lancio di o3-pro, modello generativo...

OpenAI aggiorna la modalità vocale avanzata di ChatGPT

OpenAI ha annunciato alcune novità per la modalità vocale...

ChatGPT: connessione diretta a GitHub, Gmail, Outlook e non solo

OpenAI ha deciso di rafforzare la sua presenza nel...

ChatGPT: Memoria arriva anche per gli utenti gratuiti

OpenAI ha annunciato un importante aggiornamento per ChatGPT: la...

Arriva “Sign in with ChatGPT” per accedere alle applicazioni

OpenAI starebbe valutando la possibilità di introdurre una nuova...
Pubblicità