back to top

Anthropic lancia l’allarme contro il vibe hacking con l’AI

L’intelligenza artificiale sta diventando sempre più centrale non solo nelle applicazioni legittime ma anche nelle attività criminali. Secondo il nuovo Threat Intelligence Report di agosto 2025 citato di recente da Anthropic i criminali informatici stanno sfruttando modelli AI, come Claude per orchestrare attacchi su larga scala.

Con il vibe hacking l’AI decide quali dati rubare e quale riscatto chiedere

Il rapporto evidenzia tre tendenze:

Pubblicità
  • l’AI “agentica” si è trasformata in alcuni casi in un’arma. Non si limita più a suggerire tattiche ma viene utilizzata per condurre direttamente delle azioni offensive.
  • L’AI ha abbassato drasticamente la barriera d’ingresso alla criminalità informatica. Consente anche a soggetti con competenze tecniche minime di sviluppare malware complessi, inclusi ransomware pronti all’uso.
  • I gruppi criminali hanno integrato l’AI in tutte le fasi delle loro operazioni, dalla profilazione delle vittime al furto di dati sensibili. Fino alla creazione di identità false per ampliare la portata delle frodi.

Uno dei casi più rilevanti descritti dal report è quello del cosiddetto vibe hacking, un’operazione di estorsione che ha preso di mira almeno 17 organizzazioni nei settori sanitario, dei servizi di emergenza, governativo e religioso. Qui Claude Code è stato impiegato non solo per l’automazione delle attività di ricognizione e intrusione ma anche per la decision making. L’AI decideva quali dati rubare, come strutturare le richieste di riscatto e persino quale importo chiedere analizzando le finanze delle vittime.

Le AI sanno come attaccare le vittime

Un aspetto particolarmente allarmante riguarda la capacità dell’AI di personalizzare la pressione psicologica. I messaggi di estorsione venivano generati in modo mirato e accompagnati da note scioccanti mostrate sui computer compromessi. In alcuni casi, le richieste di riscatto superavano i 500 mila dollari.

Di fronte a queste minacce le misure di sicurezza tradizionali non sono più sufficienti. Gli sviluppatori di AI hanno introdotto sistemi di rilevamento e meccanismi di sicurezza proattivi per identificare comportamenti anomali e interrompere gli abusi in tempo reale. Rimane però cruciale un impegno continuo nella ricerca e nella collaborazione tra aziende, istituzioni e comunità di cybersecurity.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

ChatGPT può fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...

DeepSeek svelerà i segreti dell’universo

Il gruppo cinese DeepSeek, già noto per aver introdotto...

La memoria RAM diventa sempre più costosa a causa dell’AI

Il successo dell'intelligenza artificiale sta provocando forti tensioni sul...

ChatGPT: modalità vocale e chat testuale in un’unica interfaccia

OpenAI ha rilasciato un nuovo aggiornamento per ChatGPT Voice,...

Black Friday: attenzione alle truffe basate sull’AI

Secondo uno studio pubblicata da Guardio, azienda specializzata in...
Pubblicità