Anthropic ha reso noto di aver interrotto una campagna di cyberspionaggio attribuita ad un gruppo di origine cinese. L’azione malevola sarebbe stata caratterizzata da un livello di autonomia considerato da molti senza precedenti.
Il primo caso documentato di attacco informatico eseguito dall’AI
L’incidente, avvenuto a settembre 2025, ha coinvolto circa trenta organizzazioni tra enti finanziari e agenzie governative internazionali. La società ha dichiarato che Claude Code è stato manipolato per effettuare delle intrusioni mirate con un intervento umano limitato a poche attività .
Secondo il rapporto diffuso dal gruppo californiano, tra l’80 e il 90% delle operazioni sarebbe stato svolto dall’AI in modo indipendente. Il modello ha generato codice, eseguito delle ricognizioni, analizzato i sistemi target e violato dati sensibili senza che gli operatori umani dovessero supervisionare gran parte del processo. Anthropic ha definito l’episodio come il primo caso documentato di attacco informatico eseguito su larga scala con minima partecipazione umana.
Ad oggi mancherebbero dettagli sulle istituzioni coinvolte o sull’entità dei dati ottenuti, la società ha però confermato che in alcuni casi l’accesso a informazioni aziendali riservate sarebbe avvenuto con successo. In ogni caso, Claude avrebbe commesso degli errori inventando dati o facendo passare per delle “scoperte” informazioni disponibili invece pubblicamente.
Reazioni e valutazioni degli esperti
Alcuni osservatori hanno interpretato l’evento come un campanello d’allarme e richiesto nuove iniziative di regolamentazione dell’AI. Altri studiosi hanno sottolineato come le attuali capacità dei modelli generativi rendano più semplice provocare dei danni reali.
Alcuni esperti ritengono però che Anthropic possa aver enfatizzato l’accaduto. Per chi tende a minimizzare l’incidente, questa attacco sarebbe stato soltanto un forma avanzata di automazione più che un esempio di vera e propria “intelligenza autonoma”. Il problema principale non risiederebbe nei modelli ma nell’adozione poco consapevole di strumenti AI, soprattutto da parte di aziende e istituzioni che rischiano di introdurre nuove vulnerabilità nei propri sistemi.

