Anthropic si oppone al Pentagono: l’AI e le sfide etiche della sorveglianza

Recentemente, la questione dell’uso dell’intelligenza artificiale (IA) in contesti militari ha preso piede nel dibattito pubblico, in particolare dopo che Anthropic, un importante attore nel campo dell’AI, ha rifiutato di fornire al Pentagono accesso completo ai suoi modelli. Questa decisione ha suscitato preoccupazioni relative alla privacy e all’etica dell’uso delle tecnologie avanzate nelle operazioni militari.

La posizione di Anthropic e il rifiuto dell’accordo

A metà febbraio, Dario Amodei, Ceo di Anthropic, ha spiegato che la rimozione delle salvaguardie etiche dall’uso dell’IA avrebbe potuto rendere gli Stati Uniti simili ai regimi che combattono. Questa dichiarazione ha portato il Pentagono a interrompere la collaborazione con Anthropic, valutata circa 200 milioni di dollari, per rivolgersi a OpenAI, l’azienda nota per lo sviluppo di ChatGPT.

Pubblicità

Questo passaggio ha generato una reazione forte da parte degli utenti, con le disinstallazioni di ChatGPT che sono aumentate del 295% e una crescita esponenziale dell’interesse verso Claude, il modello IA di Anthropic. Infatti, l’app di Claude ha registrato un numero di download così elevato da causare malfunzionamenti sia nel sito che nell’app stessa.

Le implicazioni etiche dell’uso dell’IA

La questione dell’uso etico delle IA non si limita solo agli ambiti bellici. Con l’avanzamento della tecnologia, è emerso un dibattito sul potenziale uso delle IA per compromettere l’equilibrio democratico. Ad esempio, è stato riportato che, nonostante il rifiuto di Anthropic, il Pentagono ha utilizzato i modelli dell’azienda per coordinare azioni militari, sollevando interrogativi sulla legalità e sull’etica di tali operazioni.

La reazione di OpenAI e l’accordo con il Pentagono

Sam Altman, Ceo di OpenAI, ha annunciato l’inizio della collaborazione con il Pentagono, sottolineando la necessità di proteggere i principi etici e democratici. Tuttavia, secondo alcune fonti, le affermazioni di Altman potrebbero essere considerate più retoriche che concrete. OpenAI, infatti, non avrebbe ricevuto concessioni sostanziali, ma avrebbe accettato di adattarsi alle richieste del Pentagono, mantenendo una facciata di rispetto delle leggi vigenti in materia di sorveglianza.

L’accordo tra OpenAI e il Pentagono include la clausola che consente l’uso dei modelli AI per scopi leciti. Tra i punti chiave vi è il Quarto Emendamento, che protegge i cittadini da perquisizioni e sequestri irragionevoli. Inoltre, il Foreign Intelligence Surveillance Act (FISA) del 1978 regola le attività di sorveglianza elettronica, mentre l’Executive Order 12333 del 1981 ha aperto la strada a operazioni di sorveglianza esterna senza mandato, complicando ulteriormente la questione.

Le conseguenze per il settore dell’intelligenza artificiale

Il dibattito sull’uso dell’IA in contesti militari e il potenziale impatto sulla privacy e sui diritti civili è più attuale che mai. Con il crescente interesse verso modelli come Claude di Anthropic, è evidente che gli utenti sono sempre più consapevoli delle implicazioni etiche associate all’uso delle tecnologie avanzate. La fuga da ChatGPT e il supporto crescente per Claude suggeriscono un cambiamento nelle aspettative degli utenti riguardo all’uso responsabile dell’AI.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Google presenta Gemini 3.1 Flash-Lite: l’IA economica e performante

Google ha recentemente annunciato il lancio di Gemini 3.1...

Meta AI introduce shopping research per competere con ChatGPT e Gemini

Meta sta avviando una nuova iniziativa nel suo chatbot,...

Claude Code introduce la modalità vocale: l’AI di Anthropic si evolve

Recentemente, Anthropic ha introdotto una significativa novità nel suo...

L’US Air Force rivoluziona i droni con software AI in volo

L'US Air Force ha recentemente compiuto un'importante innovazione nel...

ChatGPT Health: il pericolo di sottovalutare le emergenze mediche

Un recente studio indipendente ha sollevato serie preoccupazioni sulla...

Mobile World Congress 2026: l’impatto dell’IA sul futuro della tecnologia

Il Mobile World Congress (MWC) di Barcellona, che si...
Pubblicità