OpenAI: i browser AI resteranno vulnerabili agli attacchi di prompt injection

OpenAI ha riconosciuto che gli attacchi di prompt injection rappresentano una vulnerabilità strutturale per tutti i browser basati sulla AI, compreso il proprio ChatGPT Atlas. In un recente post l’azienda ha dichiarato che questo tipo di manipolazione, simile alle tecniche di social engineering e phishing, sarà un rischio costante, anche con l’evoluzione delle contromisure difensive.

Il rischio delle prompt injection e la risposta di OpenAI

Le prompt injection consistono in istruzioni malevole nascoste in testi, pagine web o email capaci di indurre un agente AI a eseguire azioni non previste, come l’invio di messaggi o l’accesso ai dati sensibili. Dopo il lancio di Atlas, diversi ricercatori hanno mostrato come poche righe di testo inserite in un documento online potessero alterare il comportamento del browser.

Pubblicità

OpenAI ha ammesso che l’agent mode di Atlas amplia la superficie di attacco, afferma però di aver introdotto un ciclo di risposta rapida e proattiva per individuare e correggere le vulnerabilità prima che vengano sfruttate. L’azienda ha inoltre sviluppato un attaccante automatizzato basato sul reinforcement learning, un modello AI in grado di simulare i comportamenti di un utente malintenzionato e testare le difese interne in ambienti controllati. Questo sistema consente di scoprire nuove strategie di attacco non rilevate dai test di red teaming.

Difese multilivello e limiti dei browser AI

OpenAI collabora con partner esterni per rafforzare Atlas e limita l’autonomia del browser nelle azioni sensibili. Richiede infatti la conferma dell’utente prima di inviare messaggi o effettuare pagamenti. Inoltre, invita gli utilizzatori a fornire istruzioni precise agli agenti AI e a evitare comandi generici come “gestisci la mia e-mail” che aumentano l’esposizione al rischio.

Per alcuni esperti di sicurezza il rischio rimane comunque elevato. I browser AI combinano infatti autonomia e accesso ai dati sensibili. Secondo la stessa OpenAI, finché l’autonomia degli agenti rimarrà così estesa la protezione totale dalle prompt injection resterà probabilmente un traguardo irraggiungibile.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

OpenAI presenta GPT-5.4-Cyber: l’AI al servizio della cyber security

OpenAI ha recentemente annunciato il lancio di GPT-5.4-Cyber, un...

McGrath incontra OpenAI e Netflix: focus su IA e normative europee

Durante un recente viaggio a San Francisco, il Commissario...

Duolingo abbandona la valutazione basata sull’uso dell’AI: un cambio di rotta necessario

Duolingo, l'applicazione popolare per l'apprendimento delle lingue, ha deciso...

Alexa+ di Amazon arriva in Italia: ecco come funziona la nuova AI generativa

Alexa+, la nuova versione generativa dell'assistente vocale di Amazon,...

Chrome introduce Skills: gestire i prompt di Gemini diventa semplice

Il 15 aprile 2026 rappresenta una data significativa nel...

Google investe 2 milioni di dollari per la formazione in IA per 13.000 studenti in Italia

Google ha recentemente annunciato un'iniziativa ambiziosa chiamata AI Works...
PubblicitÃ