ChatGPT può essere utilizzato per truffe telefoniche

Recenti ricerche avrebbero dimostrato come l’API vocale in tempo reale del modello GPT-4o di OpenAI possa essere sfruttata per truffe finanziarie tramite ChatGPT, con tassi di successo moderati. GPT-4o è il modello stabile più recente della compagnia, dotato di capacità avanzate che integrano input e output testuali, vocali e visivi.

Nonostante OpenAI abbia implementato diverse misure di sicurezza per bloccare i contenuti dannosi, inclusa la replica non autorizzata di voci appartenenti a persone reali, alcuni esperti evidenziano come le protezioni attuali non siano ancora sufficienti per evitare del tutto gli abusi.

Pubblicità

L’AI e truffe basate sulla voce

Le truffe basate sulla voce rappresentano già un problema legato ad un “giro d’affari” multimilionario. Nel contempo, l’emergere di tecnologie come il deepfake e gli strumenti di sintesi vocale AI starebbero peggiorando ulteriormente la situazione.

Nel loro studio, i ricercatori dell’Università dell’Illinois (UIUC) Richard Fang, Dylan Bowman e Daniel Kang avrebbero dimostrato che gli strumenti attuali, accessibili senza restrizioni, possono essere sfruttati dai cybercriminali per eseguire operazioni su larga scala. Coprendo così i costi delle operazioni vocali con un investimento minimo.

Lo studio ha analizzato diverse truffe, tra cui trasferimenti bancari, esfiltrazione di buoni regalo, trasferimenti di criptovalute e furti di credenziali per account social o di posta elettronica. Utilizzando strumenti di automazione basati su ChatGPT-4o, i ricercatori hanno creato agenti in grado di navigare tra pagine web, inserire dati e gestire codici di autenticazione a due fattori.

In alcuni casi, per aggirare le protezioni di GPT-4o che rifiutava di elaborare dati sensibili sono state impiegate tecniche di jailbreaking dei prompt.

OpenAI difende ChatGPT

I risultati mostrerebbero che le truffe potrebbero avere tassi di successo variabili, dal 20% al 60%, con un costo medio di 0.75 dollari per azione riuscita. I trasferimenti bancari sarebbero i più complessi e costerebbero in media 2.51 dollari. I furti di credenziali su Gmail avrebbero ottenuto un tasso di successo del 60%, mentre i trasferimenti di criptovalute e i furti di credenziali su Instagram avrebbero funzionato il 40% delle volte.

OpenAI ha risposto affermando di aver migliorato il modello o1-preview per renderlo più resistente a questi abusi, con un tasso di sicurezza del 93% contro il 71% di GPT-4o. Il rischio di utilizzo fraudolento di chatbot vocali come ChatGPT con restrizioni minori rimane comunque reale.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Gemini introduce la ramificazione delle chat, simile a ChatGPT

Google ha avviato i test per una nuova funzionalità...

Manus My Computer: l’agente AI senza cloud per la sicurezza dei dati

Il mondo dell'intelligenza artificiale sta vivendo una rapida evoluzione,...

Come smascherare le allucinazioni dell’AI: il prompt della parola d’ordine

Negli ultimi anni, l’intelligenza artificiale (AI) ha fatto passi...

Sam Altman prevede un futuro in cui l’AI si pagherà a consumo come luce e acqua

Sam Altman, fondatore di OpenAI, ha recentemente delineato una...

L’AI aumenta il carico di lavoro: analisi dello studio ActivTrak su ChatGPT e Claude

Negli ultimi anni, le promesse legate all'intelligenza artificiale (IA)...

AMD lancia gli Agent Computer: il futuro dell’AI agentica locale

AMD ha recentemente svelato una nuova categoria di computer,...
Pubblicità