Il Pentagono ha usato l’AI di Anthropic per supportare gli attacchi in Iran (nonostante il divieto di Trump)

Negli ultimi mesi, l’intelligenza artificiale è diventata un tema centrale nei dibattiti sulla sicurezza e sull’uso militare della tecnologia. E’ di queste ore la conferma che il Pentagono, nonostante il divieto imposto dal governo Trump, ha utilizzato il modello di intelligenza artificiale Claude, sviluppato da Anthropic, durante le recenti operazioni militari in Medio Oriente che hanno portato all’uccisione del leader Iraniano Khamenei.

Il contesto del divieto e l’uso di Claude

Il governo di Donald Trump aveva dichiarato Anthropic un «rischio nella catena di approvvigionamento», imponendo un divieto immediato all’uso dei suoi sistemi. Tuttavia, appena poche ore dopo questa decisione, il Pentagono ha utilizzato il modello Claude per analisi di intelligence e selezione degli obiettivi. Secondo fonti del Wall Street Journal, Claude era l’unico modello di AI completamente approvato per i sistemi classificati, rendendo difficile la sua rimozione immediata dagli strumenti militari in uso.

Pubblicità

La posizione di Anthropic e il rifiuto del Pentagono

La posizione di Anthropic nei riguardi delle richieste del Pentagono è stata chiara: la società ha rifiutato di rimuovere i limiti autoimposti, tra cui la sorveglianza di massa e l’uso di armi autonome senza supervisione umana. Dario Amodei, CEO di Anthropic, ha affermato: «I sistemi AI di frontiera non sono abbastanza affidabili da governare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i soldati e i civili americani». Questo rifiuto ha portato a una reazione immediata da parte del governo, che ha visto in Anthropic una minaccia alla sicurezza.

Le implicazioni etiche e strategiche dell’IA militare

Il dibattito sull’uso dell’intelligenza artificiale nelle operazioni militari è complesso. Da un lato, il Pentagono considera l’IA come uno strumento strategico indispensabile, capace di migliorare la difesa e le operazioni logistiche. Emil Michael, sottosegretario del Pentagono per ricerca e ingegneria, ha sottolineato l’importanza di un’IA in grado di rispondere rapidamente a minacce come droni o missili ipersonici.

Dall’altro lato, aziende come Anthropic pongono interrogativi etici su come queste tecnologie dovrebbero essere utilizzate. La paura di un’automazione incontrollata delle decisioni militari solleva preoccupazioni sulla sicurezza dei civili e sulla responsabilità in caso di errori di valutazione da parte dei sistemi AI.

Il futuro dell’IA e il ruolo delle aziende tecnologiche

Quanto accaduto con Anthropic e il modello Claude rappresenta una frattura nel panorama dell’IA, evidenziando la divergenza di visioni tra il settore pubblico e quello privato. Con l’aumento delle capacità delle AI, aziende come OpenAI e Anthropic devono navigare un terreno minato, dove il progresso tecnologico deve bilanciarsi con le responsabilità etiche. La questione rimane aperta: come sarà regolata l’IA nel contesto militare e quali saranno le linee guida per garantire un uso responsabile?

Il futuro dell’intelligenza artificiale, sia nel settore militare che civile, dipenderà dalla capacità di aziende e governi di collaborare e stabilire normative che non solo promuovano l’innovazione, ma che proteggano anche i diritti e la sicurezza degli individui.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

OpenAI Codex Security: l’agente AI che identifica le vulnerabilità nel software

OpenAI ha recentemente presentato Codex Security, un agente innovativo...

OpenAI rinvia la modalità adulti di ChatGPT: nuove priorità per l’IA

OpenAI ha recentemente annunciato un ulteriore rinvio della modalità...

L’impatto dell’IA sul lavoro: analisi di Anthropic dopo ChatGPT

Con l'emergere di ChatGPT alla fine del 2022, la...

Codex di OpenAI disponibile su Windows: l’intelligenza artificiale al servizio del coding

OpenAI ha recentemente lanciato l'applicazione Codex per Windows, rendendo...

WhatsApp riapre ai chatbot di terze parti: costi e implicazioni per l’AI

Meta ha recentemente annunciato la decisione di riaprire WhatsApp...

OpenAI presenta GPT-5.4: l’intelligenza artificiale per il lavoro professionale

OpenAI ha recentemente lanciato GPT-5.4, un sistema avanzato di...
Pubblicità