L’uso dell’intelligenza artificiale (AI) in contesti militari sta suscitando un acceso dibattito, soprattutto dopo l’impiego di Claude, l’AI sviluppata da Anthropic, nei recenti raid statunitensi contro l’Iran. Questo scenario ha messo in luce non solo le capacità tecnologiche di queste intelligenze artificiali, ma anche le questioni etiche e istituzionali che ne derivano.
Il contesto dell’uso di Claude nella guerra in Iran
La decisione di utilizzare Claude in operazioni militari è emersa nonostante un’ordinanza presidenziale dell’ex presidente Donald Trump, che vietava esplicitamente al Dipartimento della Guerra degli Stati Uniti di accedere ai modelli di AI di Anthropic. Questa scelta ha scatenato tensioni tra l’azienda e le autorità militari, in particolare quando il Pentagono ha ignorato l’ordine e ha fatto ricorso all’AI per supportare le sue operazioni.
Le implicazioni di un utilizzo non autorizzato
Il coinvolgimento di Claude nei raid militari ha sollevato interrogativi cruciali riguardanti la governance dell’intelligenza artificiale. Secondo Gaetano Percuoco, esperto in cyber security, si è assistito a un “salto di paradigma nell’uso dell’intelligenza artificiale in contesti di guerra”, dove non solo si impiega la potenza cinetica, ma anche una “superiorità decisionale cibernetica”. Questa evoluzione pone interrogativi sull’affidabilità e sulla responsabilità dell’uso dell’AI in situazioni di conflitto.
La posizione di Anthropic e le sue linee guida
Anthropic ha sempre mantenuto una posizione chiara riguardo all’uso della sua tecnologia, rifiutando di partecipare a operazioni che coinvolgerebbero “armi autonome”. Alessandra Russo, PhD in Relazioni Internazionali, ha sottolineato che non si è trattato di un impiego di armi autonome, bensì di un’applicazione dell’AI in un contesto di supporto decisionale. Questa distinzione è fondamentale per comprendere le posizioni etiche e istituzionali dell’azienda.
Le reazioni e le conseguenze politiche
La decisione del Pentagono di utilizzare Claude ha generato una serie di reazioni politiche. Alessandro Curioni, fondatore di DI.GI Academy, ha commentato che se un ordine politico viene disatteso in tempi così brevi, la questione non è solo tecnologica, ma istituzionale. Si pone quindi la necessità di rivedere i protocolli di utilizzo delle intelligenze artificiali nei contesti militari.
Il futuro dell’intelligenza artificiale nei conflitti
Con l’aumento dell’uso dell’AI come Claude nelle operazioni militari, è evidente che ci troviamo di fronte a una nuova era di conflitti. Le forze armate statunitensi stanno integrando tecnologie avanzate per migliorare l’efficacia delle operazioni, ma questo comporta la responsabilità di stabilire linee guida chiare. La presenza di Claude nei raid contro l’Iran rappresenta solo la punta dell’iceberg in una questione più ampia che coinvolge governo, etica e tecnologia.

