back to top

ChatGPT può essere utilizzato per truffe telefoniche

Recenti ricerche avrebbero dimostrato come l’API vocale in tempo reale del modello GPT-4o di OpenAI possa essere sfruttata per truffe finanziarie tramite ChatGPT, con tassi di successo moderati. GPT-4o è il modello stabile più recente della compagnia, dotato di capacità avanzate che integrano input e output testuali, vocali e visivi.

Nonostante OpenAI abbia implementato diverse misure di sicurezza per bloccare i contenuti dannosi, inclusa la replica non autorizzata di voci appartenenti a persone reali, alcuni esperti evidenziano come le protezioni attuali non siano ancora sufficienti per evitare del tutto gli abusi.

Pubblicità

L’AI e truffe basate sulla voce

Le truffe basate sulla voce rappresentano già un problema legato ad un “giro d’affari” multimilionario. Nel contempo, l’emergere di tecnologie come il deepfake e gli strumenti di sintesi vocale AI starebbero peggiorando ulteriormente la situazione.

Nel loro studio, i ricercatori dell’Università dell’Illinois (UIUC) Richard Fang, Dylan Bowman e Daniel Kang avrebbero dimostrato che gli strumenti attuali, accessibili senza restrizioni, possono essere sfruttati dai cybercriminali per eseguire operazioni su larga scala. Coprendo così i costi delle operazioni vocali con un investimento minimo.

Lo studio ha analizzato diverse truffe, tra cui trasferimenti bancari, esfiltrazione di buoni regalo, trasferimenti di criptovalute e furti di credenziali per account social o di posta elettronica. Utilizzando strumenti di automazione basati su ChatGPT-4o, i ricercatori hanno creato agenti in grado di navigare tra pagine web, inserire dati e gestire codici di autenticazione a due fattori.

In alcuni casi, per aggirare le protezioni di GPT-4o che rifiutava di elaborare dati sensibili sono state impiegate tecniche di jailbreaking dei prompt.

OpenAI difende ChatGPT

I risultati mostrerebbero che le truffe potrebbero avere tassi di successo variabili, dal 20% al 60%, con un costo medio di 0.75 dollari per azione riuscita. I trasferimenti bancari sarebbero i più complessi e costerebbero in media 2.51 dollari. I furti di credenziali su Gmail avrebbero ottenuto un tasso di successo del 60%, mentre i trasferimenti di criptovalute e i furti di credenziali su Instagram avrebbero funzionato il 40% delle volte.

OpenAI ha risposto affermando di aver migliorato il modello o1-preview per renderlo più resistente a questi abusi, con un tasso di sicurezza del 93% contro il 71% di GPT-4o. Il rischio di utilizzo fraudolento di chatbot vocali come ChatGPT con restrizioni minori rimane comunque reale.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

OpenAI: l’agente AI Operator arriva anche in Europa

OpenAI ha reso disponibile il suo agente AI Operator...

ChatGPT per macOS “collabora” con le app di sviluppo e scrittura

ChatGPT per macOS offre ora la nuova funzionalità Work...

ChatGPT diventa un motore di ricerca in Safari. Ecco come attivarlo

OpenAI ha aggiornato l'app di ChatGPT introducendo una nuova...

OpenAI: meno “censure” su ChatGPT

OpenAI ha annunciato nelle scorse ore l'intenzione di ridurre...

ChatGPT: motore di ricerca accessibile anche senza abbonamento

OpenAI ha annunciato che il motore di ricerca basato...

ChatGPT su WhatsApp supporta l’invio di foto e note vocali

A partire da dicembre 2024 OpenAI ha reso disponibile...
Pubblicità