back to top

Anthropic lancia l’allarme contro il vibe hacking con l’AI

L’intelligenza artificiale sta diventando sempre più centrale non solo nelle applicazioni legittime ma anche nelle attività criminali. Secondo il nuovo Threat Intelligence Report di agosto 2025 citato di recente da Anthropic i criminali informatici stanno sfruttando modelli AI, come Claude per orchestrare attacchi su larga scala.

Con il vibe hacking l’AI decide quali dati rubare e quale riscatto chiedere

Il rapporto evidenzia tre tendenze:

Pubblicità
  • l’AI “agentica” si è trasformata in alcuni casi in un’arma. Non si limita più a suggerire tattiche ma viene utilizzata per condurre direttamente delle azioni offensive.
  • L’AI ha abbassato drasticamente la barriera d’ingresso alla criminalità informatica. Consente anche a soggetti con competenze tecniche minime di sviluppare malware complessi, inclusi ransomware pronti all’uso.
  • I gruppi criminali hanno integrato l’AI in tutte le fasi delle loro operazioni, dalla profilazione delle vittime al furto di dati sensibili. Fino alla creazione di identità false per ampliare la portata delle frodi.

Uno dei casi più rilevanti descritti dal report è quello del cosiddetto vibe hacking, un’operazione di estorsione che ha preso di mira almeno 17 organizzazioni nei settori sanitario, dei servizi di emergenza, governativo e religioso. Qui Claude Code è stato impiegato non solo per l’automazione delle attività di ricognizione e intrusione ma anche per la decision making. L’AI decideva quali dati rubare, come strutturare le richieste di riscatto e persino quale importo chiedere analizzando le finanze delle vittime.

Le AI sanno come attaccare le vittime

Un aspetto particolarmente allarmante riguarda la capacità dell’AI di personalizzare la pressione psicologica. I messaggi di estorsione venivano generati in modo mirato e accompagnati da note scioccanti mostrate sui computer compromessi. In alcuni casi, le richieste di riscatto superavano i 500 mila dollari.

Di fronte a queste minacce le misure di sicurezza tradizionali non sono più sufficienti. Gli sviluppatori di AI hanno introdotto sistemi di rilevamento e meccanismi di sicurezza proattivi per identificare comportamenti anomali e interrompere gli abusi in tempo reale. Rimane però cruciale un impegno continuo nella ricerca e nella collaborazione tra aziende, istituzioni e comunità di cybersecurity.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

Claude AI interpreta i tuoi dati sulla salute

Anthropic ha annunciato il supporto alle integrazioni mediche per...

Microsoft: l’AI deve ancora dimostrare la sua utilità

Durante il World Economic Forum 2026 di Davos, Satya...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Claude: l’AI pensa alla salute con Healthcare

Anthropic ha lanciato un'estensione delle funzionalità di Claude 4.5...

Google: i modelli di AI cinesi sono vicinissimi agli standard occidentali

Secondo Demis Hassabis, CEO di Google DeepMind e responsabile...
Pubblicità