Anthropic, una delle principali aziende nel campo dell’intelligenza artificiale (IA) e creatrice del modello Claude, ha intrapreso un’azione legale contro il Pentagono, in risposta alla sua recente decisione di classificare l’azienda come un “rischio per la catena di approvvigionamento”. Questa mossa, secondo la società guidata da Dario Amodei, rappresenta una violazione dei diritti costituzionali e una rappresaglia politica senza precedenti.
Il contesto della controversia legale
La causa legale di Anthropic è scaturita da una disputa contrattuale legata all’uso dell’intelligenza artificiale in ambito militare. Nel luglio 2025, l’azienda aveva sottoscritto un contratto del valore di 200 milioni di dollari con il governo degli Stati Uniti, imponendo restrizioni sull’impiego del modello Claude. In particolare, Anthropic ha richiesto di escludere l’uso della sua IA per la sorveglianza di massa e per la creazione di sistemi d’arma autonomi, capaci di operare senza un intervento umano diretto.
Le implicazioni del bando del Pentagono
La decisione del Pentagono di etichettare Anthropic come un rischio per la catena di approvvigionamento comporta gravi conseguenze. Non solo il contratto con il governo statunitense è stato rescisso ma anche tutte le aziende che collaborano con il Pentagono sono obbligate a interrompere qualsiasi rapporto commerciale con Anthropic. Questo potrebbe compromettere significativamente i 14 miliardi di dollari di fatturato che l’azienda prevede di generare quest’anno, provenienti principalmente da clienti che utilizzano Claude per vari scopi, tra cui la scrittura di codice di programmazione.
Libertà di espressione e diritti costituzionali
Uno degli aspetti più complessi della causa riguarda la violazione del Primo Emendamento, che tutela la libertà di espressione. I legali di Anthropic sostengono che la classificazione dell’azienda come minaccia rappresenti una punizione per le opinioni espresse da Amodei sulla regolamentazione dell’IA in ambito bellico. In questo contesto, le politiche di sicurezza della società vengono presentate come una forma di espressione protetta, sottolineando l’importanza di non limitare il dibattito pubblico sull’uso dell’intelligenza artificiale in contesti militari.
Reazioni e sviluppi futuri
La situazione ha suscitato reazioni contrastanti nel panorama politico e tecnologico. Anche l’ex presidente Trump ha ordinato la sospensione dell’uso di Claude da parte delle agenzie federali, concedendo tuttavia al Pentagono sei mesi per dismettere gradualmente il prodotto. Questa decisione evidenzia la crescente tensione tra innovazione tecnologica e sicurezza nazionale, un tema che sarà cruciale nei prossimi anni.

