back to top

Anthropic: primo attacco informatico “autonomo” con Claude Code

Anthropic ha reso noto di aver interrotto una campagna di cyberspionaggio attribuita ad un gruppo di origine cinese. L’azione malevola sarebbe stata caratterizzata da un livello di autonomia considerato da molti senza precedenti.

Il primo caso documentato di attacco informatico eseguito dall’AI

L’incidente, avvenuto a settembre 2025, ha coinvolto circa trenta organizzazioni tra enti finanziari e agenzie governative internazionali. La società ha dichiarato che Claude Code è stato manipolato per effettuare delle intrusioni mirate con un intervento umano limitato a poche attività.

Pubblicità

Secondo il rapporto diffuso dal gruppo californiano, tra l’80 e il 90% delle operazioni sarebbe stato svolto dall’AI in modo indipendente. Il modello ha generato codice, eseguito delle ricognizioni, analizzato i sistemi target e violato dati sensibili senza che gli operatori umani dovessero supervisionare gran parte del processo. Anthropic ha definito l’episodio come il primo caso documentato di attacco informatico eseguito su larga scala con minima partecipazione umana.

Ad oggi mancherebbero dettagli sulle istituzioni coinvolte o sull’entità dei dati ottenuti, la società ha però confermato che in alcuni casi l’accesso a informazioni aziendali riservate sarebbe avvenuto con successo. In ogni caso, Claude avrebbe commesso degli errori inventando dati o facendo passare per delle “scoperte” informazioni disponibili invece pubblicamente.

Reazioni e valutazioni degli esperti

Alcuni osservatori hanno interpretato l’evento come un campanello d’allarme e richiesto nuove iniziative di regolamentazione dell’AI. Altri studiosi hanno sottolineato come le attuali capacità dei modelli generativi rendano più semplice provocare dei danni reali.

Alcuni esperti ritengono però che Anthropic possa aver enfatizzato l’accaduto. Per chi tende a minimizzare l’incidente, questa attacco sarebbe stato soltanto un forma avanzata di automazione più che un esempio di vera e propria “intelligenza autonoma”. Il problema principale non risiederebbe nei modelli ma nell’adozione poco consapevole di strumenti AI, soprattutto da parte di aziende e istituzioni che rischiano di introdurre nuove vulnerabilità nei propri sistemi.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

Claude AI interpreta i tuoi dati sulla salute

Anthropic ha annunciato il supporto alle integrazioni mediche per...

Microsoft: l’AI deve ancora dimostrare la sua utilità

Durante il World Economic Forum 2026 di Davos, Satya...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Claude: l’AI pensa alla salute con Healthcare

Anthropic ha lanciato un'estensione delle funzionalità di Claude 4.5...

Google: i modelli di AI cinesi sono vicinissimi agli standard occidentali

Secondo Demis Hassabis, CEO di Google DeepMind e responsabile...
PubblicitÃ