Il Pentagono ha usato l’AI di Anthropic per supportare gli attacchi in Iran (nonostante il divieto di Trump)

Negli ultimi mesi, l’intelligenza artificiale è diventata un tema centrale nei dibattiti sulla sicurezza e sull’uso militare della tecnologia. E’ di queste ore la conferma che il Pentagono, nonostante il divieto imposto dal governo Trump, ha utilizzato il modello di intelligenza artificiale Claude, sviluppato da Anthropic, durante le recenti operazioni militari in Medio Oriente che hanno portato all’uccisione del leader Iraniano Khamenei.

Il contesto del divieto e l’uso di Claude

Il governo di Donald Trump aveva dichiarato Anthropic un «rischio nella catena di approvvigionamento», imponendo un divieto immediato all’uso dei suoi sistemi. Tuttavia, appena poche ore dopo questa decisione, il Pentagono ha utilizzato il modello Claude per analisi di intelligence e selezione degli obiettivi. Secondo fonti del Wall Street Journal, Claude era l’unico modello di AI completamente approvato per i sistemi classificati, rendendo difficile la sua rimozione immediata dagli strumenti militari in uso.

Pubblicità

La posizione di Anthropic e il rifiuto del Pentagono

La posizione di Anthropic nei riguardi delle richieste del Pentagono è stata chiara: la società ha rifiutato di rimuovere i limiti autoimposti, tra cui la sorveglianza di massa e l’uso di armi autonome senza supervisione umana. Dario Amodei, CEO di Anthropic, ha affermato: «I sistemi AI di frontiera non sono abbastanza affidabili da governare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i soldati e i civili americani». Questo rifiuto ha portato a una reazione immediata da parte del governo, che ha visto in Anthropic una minaccia alla sicurezza.

Le implicazioni etiche e strategiche dell’IA militare

Il dibattito sull’uso dell’intelligenza artificiale nelle operazioni militari è complesso. Da un lato, il Pentagono considera l’IA come uno strumento strategico indispensabile, capace di migliorare la difesa e le operazioni logistiche. Emil Michael, sottosegretario del Pentagono per ricerca e ingegneria, ha sottolineato l’importanza di un’IA in grado di rispondere rapidamente a minacce come droni o missili ipersonici.

Dall’altro lato, aziende come Anthropic pongono interrogativi etici su come queste tecnologie dovrebbero essere utilizzate. La paura di un’automazione incontrollata delle decisioni militari solleva preoccupazioni sulla sicurezza dei civili e sulla responsabilità in caso di errori di valutazione da parte dei sistemi AI.

Il futuro dell’IA e il ruolo delle aziende tecnologiche

Quanto accaduto con Anthropic e il modello Claude rappresenta una frattura nel panorama dell’IA, evidenziando la divergenza di visioni tra il settore pubblico e quello privato. Con l’aumento delle capacità delle AI, aziende come OpenAI e Anthropic devono navigare un terreno minato, dove il progresso tecnologico deve bilanciarsi con le responsabilità etiche. La questione rimane aperta: come sarà regolata l’IA nel contesto militare e quali saranno le linee guida per garantire un uso responsabile?

Il futuro dell’intelligenza artificiale, sia nel settore militare che civile, dipenderà dalla capacità di aziende e governi di collaborare e stabilire normative che non solo promuovano l’innovazione, ma che proteggano anche i diritti e la sicurezza degli individui.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Claude di Anthropic conquista l’App Store dopo il rifiuto al Pentagono

Claude, il chatbot sviluppato da Anthropic, ha recentemente conquistato...

Anthropic “bannata” da Trump. Il Pentagono sigla accordo con OpenAI

Negli ultimi giorni, il settore dell'intelligenza artificiale ha assistito...

Microsoft lancia Copilot Tasks: l’IA che agisce autonomamente

Microsoft ha recentemente annunciato il lancio di Copilot Tasks,...

L’Intelligenza Artificiale premia Sayf al Festival di Sanremo 2026

Il Festival di Sanremo 2026 ha visto un'innovazione sorprendente...

L’era dell’AI: nel 2036 gli umani saranno al servizio delle intelligenze artificiali?

Nel 2036, il mondo potrebbe essere radicalmente diverso da...

Anthropic dice “no” al Pentagono: scelta etica contro l’uso indiscriminato della IA in contesti militari

Anthropic, azienda leader nel campo dell'intelligenza artificiale, ha preso...
Pubblicità