Negli ultimi mesi, l’intelligenza artificiale è diventata un tema centrale nei dibattiti sulla sicurezza e sull’uso militare della tecnologia. E’ di queste ore la conferma che il Pentagono, nonostante il divieto imposto dal governo Trump, ha utilizzato il modello di intelligenza artificiale Claude, sviluppato da Anthropic, durante le recenti operazioni militari in Medio Oriente che hanno portato all’uccisione del leader Iraniano Khamenei.
Il contesto del divieto e l’uso di Claude
Il governo di Donald Trump aveva dichiarato Anthropic un «rischio nella catena di approvvigionamento», imponendo un divieto immediato all’uso dei suoi sistemi. Tuttavia, appena poche ore dopo questa decisione, il Pentagono ha utilizzato il modello Claude per analisi di intelligence e selezione degli obiettivi. Secondo fonti del Wall Street Journal, Claude era l’unico modello di AI completamente approvato per i sistemi classificati, rendendo difficile la sua rimozione immediata dagli strumenti militari in uso.
La posizione di Anthropic e il rifiuto del Pentagono
La posizione di Anthropic nei riguardi delle richieste del Pentagono è stata chiara: la società ha rifiutato di rimuovere i limiti autoimposti, tra cui la sorveglianza di massa e l’uso di armi autonome senza supervisione umana. Dario Amodei, CEO di Anthropic, ha affermato: «I sistemi AI di frontiera non sono abbastanza affidabili da governare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i soldati e i civili americani». Questo rifiuto ha portato a una reazione immediata da parte del governo, che ha visto in Anthropic una minaccia alla sicurezza.
Le implicazioni etiche e strategiche dell’IA militare
Il dibattito sull’uso dell’intelligenza artificiale nelle operazioni militari è complesso. Da un lato, il Pentagono considera l’IA come uno strumento strategico indispensabile, capace di migliorare la difesa e le operazioni logistiche. Emil Michael, sottosegretario del Pentagono per ricerca e ingegneria, ha sottolineato l’importanza di un’IA in grado di rispondere rapidamente a minacce come droni o missili ipersonici.
Dall’altro lato, aziende come Anthropic pongono interrogativi etici su come queste tecnologie dovrebbero essere utilizzate. La paura di un’automazione incontrollata delle decisioni militari solleva preoccupazioni sulla sicurezza dei civili e sulla responsabilità in caso di errori di valutazione da parte dei sistemi AI.
Il futuro dell’IA e il ruolo delle aziende tecnologiche
Quanto accaduto con Anthropic e il modello Claude rappresenta una frattura nel panorama dell’IA, evidenziando la divergenza di visioni tra il settore pubblico e quello privato. Con l’aumento delle capacità delle AI, aziende come OpenAI e Anthropic devono navigare un terreno minato, dove il progresso tecnologico deve bilanciarsi con le responsabilità etiche. La questione rimane aperta: come sarà regolata l’IA nel contesto militare e quali saranno le linee guida per garantire un uso responsabile?
Il futuro dell’intelligenza artificiale, sia nel settore militare che civile, dipenderà dalla capacità di aziende e governi di collaborare e stabilire normative che non solo promuovano l’innovazione, ma che proteggano anche i diritti e la sicurezza degli individui.

