Anthropic: primo attacco informatico “autonomo” con Claude Code

Anthropic ha reso noto di aver interrotto una campagna di cyberspionaggio attribuita ad un gruppo di origine cinese. L’azione malevola sarebbe stata caratterizzata da un livello di autonomia considerato da molti senza precedenti.

Il primo caso documentato di attacco informatico eseguito dall’AI

L’incidente, avvenuto a settembre 2025, ha coinvolto circa trenta organizzazioni tra enti finanziari e agenzie governative internazionali. La società ha dichiarato che Claude Code è stato manipolato per effettuare delle intrusioni mirate con un intervento umano limitato a poche attività.

Pubblicità

Secondo il rapporto diffuso dal gruppo californiano, tra l’80 e il 90% delle operazioni sarebbe stato svolto dall’AI in modo indipendente. Il modello ha generato codice, eseguito delle ricognizioni, analizzato i sistemi target e violato dati sensibili senza che gli operatori umani dovessero supervisionare gran parte del processo. Anthropic ha definito l’episodio come il primo caso documentato di attacco informatico eseguito su larga scala con minima partecipazione umana.

Ad oggi mancherebbero dettagli sulle istituzioni coinvolte o sull’entità dei dati ottenuti, la società ha però confermato che in alcuni casi l’accesso a informazioni aziendali riservate sarebbe avvenuto con successo. In ogni caso, Claude avrebbe commesso degli errori inventando dati o facendo passare per delle “scoperte” informazioni disponibili invece pubblicamente.

Reazioni e valutazioni degli esperti

Alcuni osservatori hanno interpretato l’evento come un campanello d’allarme e richiesto nuove iniziative di regolamentazione dell’AI. Altri studiosi hanno sottolineato come le attuali capacità dei modelli generativi rendano più semplice provocare dei danni reali.

Alcuni esperti ritengono però che Anthropic possa aver enfatizzato l’accaduto. Per chi tende a minimizzare l’incidente, questa attacco sarebbe stato soltanto un forma avanzata di automazione più che un esempio di vera e propria “intelligenza autonoma”. Il problema principale non risiederebbe nei modelli ma nell’adozione poco consapevole di strumenti AI, soprattutto da parte di aziende e istituzioni che rischiano di introdurre nuove vulnerabilità nei propri sistemi.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Anthropic avvia un’indagine su accessi non autorizzati a Claude Mythos

Recenti eventi hanno messo in luce le vulnerabilità legate...

Google Workspace introduce l’AI per semplificare il lavoro con Claude di Anthropic

Google Workspace ha recentemente annunciato l’integrazione di un’intelligenza artificiale...

Sam Altman accusa Anthropic: la strategia di marketing basata sulla paura di Mythos

Recentemente, il CEO di OpenAI, Sam Altman, ha lanciato...

Andon Market: il primo negozio gestito da intelligenza artificiale a San Francisco

Nel cuore di San Francisco, precisamente al 2102 di...

L’NSA e l’accesso al super agente AI di Anthropic: il caso Claude

Recentemente è emerso che l'NSA, la National Security Agency...

Amazon e Anthropic: un accordo strategico che rimodella il futuro dell’intelligenza artificiale

Amazon ha annunciato un significativo investimento di 5 miliardi...
PubblicitÃ