Anthropic fa causa al Pentagono: l’IA in gioco tra libertà di espressione e guerra

Anthropic, una delle principali aziende nel campo dell’intelligenza artificiale (IA) e creatrice del modello Claude, ha intrapreso un’azione legale contro il Pentagono, in risposta alla sua recente decisione di classificare l’azienda come un “rischio per la catena di approvvigionamento”. Questa mossa, secondo la società guidata da Dario Amodei, rappresenta una violazione dei diritti costituzionali e una rappresaglia politica senza precedenti.

Il contesto della controversia legale

La causa legale di Anthropic è scaturita da una disputa contrattuale legata all’uso dell’intelligenza artificiale in ambito militare. Nel luglio 2025, l’azienda aveva sottoscritto un contratto del valore di 200 milioni di dollari con il governo degli Stati Uniti, imponendo restrizioni sull’impiego del modello Claude. In particolare, Anthropic ha richiesto di escludere l’uso della sua IA per la sorveglianza di massa e per la creazione di sistemi d’arma autonomi, capaci di operare senza un intervento umano diretto.

Pubblicità

Le implicazioni del bando del Pentagono

La decisione del Pentagono di etichettare Anthropic come un rischio per la catena di approvvigionamento comporta gravi conseguenze. Non solo il contratto con il governo statunitense è stato rescisso ma anche tutte le aziende che collaborano con il Pentagono sono obbligate a interrompere qualsiasi rapporto commerciale con Anthropic. Questo potrebbe compromettere significativamente i 14 miliardi di dollari di fatturato che l’azienda prevede di generare quest’anno, provenienti principalmente da clienti che utilizzano Claude per vari scopi, tra cui la scrittura di codice di programmazione.

Libertà di espressione e diritti costituzionali

Uno degli aspetti più complessi della causa riguarda la violazione del Primo Emendamento, che tutela la libertà di espressione. I legali di Anthropic sostengono che la classificazione dell’azienda come minaccia rappresenti una punizione per le opinioni espresse da Amodei sulla regolamentazione dell’IA in ambito bellico. In questo contesto, le politiche di sicurezza della società vengono presentate come una forma di espressione protetta, sottolineando l’importanza di non limitare il dibattito pubblico sull’uso dell’intelligenza artificiale in contesti militari.

Reazioni e sviluppi futuri

La situazione ha suscitato reazioni contrastanti nel panorama politico e tecnologico. Anche l’ex presidente Trump ha ordinato la sospensione dell’uso di Claude da parte delle agenzie federali, concedendo tuttavia al Pentagono sei mesi per dismettere gradualmente il prodotto. Questa decisione evidenzia la crescente tensione tra innovazione tecnologica e sicurezza nazionale, un tema che sarà cruciale nei prossimi anni.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Claude supera ChatGPT: la crescita esplosiva di Anthropic nel 2026

Nel 2026, il panorama dei chatbot ha subito una...

Microsoft lancia Copilot Cowork: l’IA per la produttività in Microsoft 365

Microsoft ha recentemente introdotto Copilot Cowork, un innovativo assistente...

OpenClaw: attenzione ai falsi installer promossi da Bing che rubano dati

Negli ultimi mesi, OpenClaw ha guadagnato notevole popolarità nel...

Motori di ricerca alternativi senza intelligenza artificiale: 5 opzioni da esplorare

Con l'avvento dell'intelligenza artificiale, in particolare con strumenti come...

Xiaomi Miclaw: il nuovo agente AI per smartphone in fase beta

Xiaomi ha recentemente annunciato l'avvio delle beta private per...

OpenAI Codex Security: l’agente AI che identifica le vulnerabilità nel software

OpenAI ha recentemente presentato Codex Security, un agente innovativo...
Pubblicità