Anthropic: primo attacco informatico “autonomo” con Claude Code

Anthropic ha reso noto di aver interrotto una campagna di cyberspionaggio attribuita ad un gruppo di origine cinese. L’azione malevola sarebbe stata caratterizzata da un livello di autonomia considerato da molti senza precedenti.

Il primo caso documentato di attacco informatico eseguito dall’AI

L’incidente, avvenuto a settembre 2025, ha coinvolto circa trenta organizzazioni tra enti finanziari e agenzie governative internazionali. La società ha dichiarato che Claude Code è stato manipolato per effettuare delle intrusioni mirate con un intervento umano limitato a poche attività.

Pubblicità

Secondo il rapporto diffuso dal gruppo californiano, tra l’80 e il 90% delle operazioni sarebbe stato svolto dall’AI in modo indipendente. Il modello ha generato codice, eseguito delle ricognizioni, analizzato i sistemi target e violato dati sensibili senza che gli operatori umani dovessero supervisionare gran parte del processo. Anthropic ha definito l’episodio come il primo caso documentato di attacco informatico eseguito su larga scala con minima partecipazione umana.

Ad oggi mancherebbero dettagli sulle istituzioni coinvolte o sull’entità dei dati ottenuti, la società ha però confermato che in alcuni casi l’accesso a informazioni aziendali riservate sarebbe avvenuto con successo. In ogni caso, Claude avrebbe commesso degli errori inventando dati o facendo passare per delle “scoperte” informazioni disponibili invece pubblicamente.

Reazioni e valutazioni degli esperti

Alcuni osservatori hanno interpretato l’evento come un campanello d’allarme e richiesto nuove iniziative di regolamentazione dell’AI. Altri studiosi hanno sottolineato come le attuali capacità dei modelli generativi rendano più semplice provocare dei danni reali.

Alcuni esperti ritengono però che Anthropic possa aver enfatizzato l’accaduto. Per chi tende a minimizzare l’incidente, questa attacco sarebbe stato soltanto un forma avanzata di automazione più che un esempio di vera e propria “intelligenza autonoma”. Il problema principale non risiederebbe nei modelli ma nell’adozione poco consapevole di strumenti AI, soprattutto da parte di aziende e istituzioni che rischiano di introdurre nuove vulnerabilità nei propri sistemi.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Claude supera ChatGPT: la crescita esplosiva di Anthropic nel 2026

Nel 2026, il panorama dei chatbot ha subito una...

Anthropic fa causa al Pentagono: l’IA in gioco tra libertà di espressione e guerra

Anthropic, una delle principali aziende nel campo dell'intelligenza artificiale...

L’impatto dell’IA sul lavoro: analisi di Anthropic dopo ChatGPT

Con l'emergere di ChatGPT alla fine del 2022, la...

InstallFix: la nuova minaccia informatica che sfrutta Claude Code di Anthropic

Negli ultimi anni, la popolarità dell'intelligenza artificiale ha portato...

L’AI di Anthropic e il suo ruolo nei raid Usa contro l’Iran

L'uso dell'intelligenza artificiale (AI) in contesti militari sta suscitando...

OpenAI lancia Gpt-5.3 Instant: la sfida con Anthropic si intensifica

La competizione tra OpenAI e Anthropic si fa sempre...
PubblicitÃ