Anthropic lancia l’allarme contro il vibe hacking con l’AI

L’intelligenza artificiale sta diventando sempre più centrale non solo nelle applicazioni legittime ma anche nelle attività criminali. Secondo il nuovo Threat Intelligence Report di agosto 2025 citato di recente da Anthropic i criminali informatici stanno sfruttando modelli AI, come Claude per orchestrare attacchi su larga scala.

Con il vibe hacking l’AI decide quali dati rubare e quale riscatto chiedere

Il rapporto evidenzia tre tendenze:

Pubblicità
  • l’AI “agentica” si è trasformata in alcuni casi in un’arma. Non si limita più a suggerire tattiche ma viene utilizzata per condurre direttamente delle azioni offensive.
  • L’AI ha abbassato drasticamente la barriera d’ingresso alla criminalità informatica. Consente anche a soggetti con competenze tecniche minime di sviluppare malware complessi, inclusi ransomware pronti all’uso.
  • I gruppi criminali hanno integrato l’AI in tutte le fasi delle loro operazioni, dalla profilazione delle vittime al furto di dati sensibili. Fino alla creazione di identità false per ampliare la portata delle frodi.

Uno dei casi più rilevanti descritti dal report è quello del cosiddetto vibe hacking, un’operazione di estorsione che ha preso di mira almeno 17 organizzazioni nei settori sanitario, dei servizi di emergenza, governativo e religioso. Qui Claude Code è stato impiegato non solo per l’automazione delle attività di ricognizione e intrusione ma anche per la decision making. L’AI decideva quali dati rubare, come strutturare le richieste di riscatto e persino quale importo chiedere analizzando le finanze delle vittime.

Le AI sanno come attaccare le vittime

Un aspetto particolarmente allarmante riguarda la capacità dell’AI di personalizzare la pressione psicologica. I messaggi di estorsione venivano generati in modo mirato e accompagnati da note scioccanti mostrate sui computer compromessi. In alcuni casi, le richieste di riscatto superavano i 500 mila dollari.

Di fronte a queste minacce le misure di sicurezza tradizionali non sono più sufficienti. Gli sviluppatori di AI hanno introdotto sistemi di rilevamento e meccanismi di sicurezza proattivi per identificare comportamenti anomali e interrompere gli abusi in tempo reale. Rimane però cruciale un impegno continuo nella ricerca e nella collaborazione tra aziende, istituzioni e comunità di cybersecurity.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meta avvia la raccolta dati per migliorare l’IA: come funziona il programma MCI

Meta ha lanciato un ambizioso programma di raccolta dati...

Anthropic avvia un’indagine su accessi non autorizzati a Claude Mythos

Recenti eventi hanno messo in luce le vulnerabilità legate...

Google Workspace introduce l’AI per semplificare il lavoro con Claude di Anthropic

Google Workspace ha recentemente annunciato l’integrazione di un’intelligenza artificiale...

Come usare l’intelligenza artificiale per migliorare la memoria con ChatGPT e Claude

L’impiego dell’intelligenza artificiale (IA) sta rapidamente cambiando il nostro...

La corsa all’IA: perché la Cina supera gli USA con Claude e Gemini

La competizione globale nell'intelligenza artificiale (IA) ha visto la...

Sam Altman accusa Anthropic: la strategia di marketing basata sulla paura di Mythos

Recentemente, il CEO di OpenAI, Sam Altman, ha lanciato...
Pubblicità