back to top

Anthropic: primo attacco informatico “autonomo” con Claude Code

Anthropic ha reso noto di aver interrotto una campagna di cyberspionaggio attribuita ad un gruppo di origine cinese. L’azione malevola sarebbe stata caratterizzata da un livello di autonomia considerato da molti senza precedenti.

Il primo caso documentato di attacco informatico eseguito dall’AI

L’incidente, avvenuto a settembre 2025, ha coinvolto circa trenta organizzazioni tra enti finanziari e agenzie governative internazionali. La società ha dichiarato che Claude Code è stato manipolato per effettuare delle intrusioni mirate con un intervento umano limitato a poche attività.

Pubblicità

Secondo il rapporto diffuso dal gruppo californiano, tra l’80 e il 90% delle operazioni sarebbe stato svolto dall’AI in modo indipendente. Il modello ha generato codice, eseguito delle ricognizioni, analizzato i sistemi target e violato dati sensibili senza che gli operatori umani dovessero supervisionare gran parte del processo. Anthropic ha definito l’episodio come il primo caso documentato di attacco informatico eseguito su larga scala con minima partecipazione umana.

Ad oggi mancherebbero dettagli sulle istituzioni coinvolte o sull’entità dei dati ottenuti, la società ha però confermato che in alcuni casi l’accesso a informazioni aziendali riservate sarebbe avvenuto con successo. In ogni caso, Claude avrebbe commesso degli errori inventando dati o facendo passare per delle “scoperte” informazioni disponibili invece pubblicamente.

Reazioni e valutazioni degli esperti

Alcuni osservatori hanno interpretato l’evento come un campanello d’allarme e richiesto nuove iniziative di regolamentazione dell’AI. Altri studiosi hanno sottolineato come le attuali capacità dei modelli generativi rendano più semplice provocare dei danni reali.

Alcuni esperti ritengono però che Anthropic possa aver enfatizzato l’accaduto. Per chi tende a minimizzare l’incidente, questa attacco sarebbe stato soltanto un forma avanzata di automazione più che un esempio di vera e propria “intelligenza autonoma”. Il problema principale non risiederebbe nei modelli ma nell’adozione poco consapevole di strumenti AI, soprattutto da parte di aziende e istituzioni che rischiano di introdurre nuove vulnerabilità nei propri sistemi.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meno metaverso e più AI nel futuro di Meta

Meta ha programmato una revisione della propria strategia aziendale...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

ChatGPT può fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...

DeepSeek svelerà i segreti dell’universo

Il gruppo cinese DeepSeek, già noto per aver introdotto...

La memoria RAM diventa sempre più costosa a causa dell’AI

Il successo dell'intelligenza artificiale sta provocando forti tensioni sul...

ChatGPT: modalità vocale e chat testuale in un’unica interfaccia

OpenAI ha rilasciato un nuovo aggiornamento per ChatGPT Voice,...
PubblicitÃ