Intelligenza artificiale in guerra: ChatGPT, Claude e Gemini potrebbero usare l’atomica

L’intelligenza artificiale (IA) sta assumendo un ruolo sempre più rilevante in svariati campi, ma uno dei suoi aspetti più controversi è l’applicazione in contesti bellici. Un recente esperimento condotto dalla King’s College London ha messo alla prova tre modelli di IA, ChatGPT, Claude e Gemini, in scenari di guerra simulati, rivelando risultati inquietanti riguardo alla loro inclinazione a utilizzare armi nucleari.

Il contesto dell’esperimento

Nell’esperimento, i tre chatbot sono stati programmati per impersonare leader di nazioni rivali dotate di armi nucleari. Le simulazioni hanno cercato di replicare le dinamiche della guerra fredda, in cui una potenza tecnologicamente avanzata – ma militarmente più debole – affronta un avversario tradizionalmente dominante. Gli scenari includevano decisioni strategiche che andavano dalla diplomazia alla guerra totale, con un particolare focus sull’utilizzo di testate nucleari.

Pubblicità

I risultati delle simulazioni

I risultati dell’esperimento sono stati allarmanti: nel 95% dei casi, i modelli hanno minacciato di utilizzare armi nucleari contro i loro avversari. Questo comportamento non è solo una simulazione di conflitto, ma mette in evidenza una potenziale predisposizione dei sistemi di IA a optare per soluzioni estreme in situazioni di crisi. In particolare, le interazioni tra i tre chatbot hanno generato un corpus di 780 mila parole, superando addirittura il numero di parole presenti in opere letterarie come “Guerra e Pace” di Lev Tolstoj.

Le personalità dei modelli di IA

Durante le simulazioni, Kenneth Payne, il ricercatore responsabile dello studio, ha attribuito a ciascun modello un soprannome basato sul loro comportamento strategico. ChatGPT è stato descritto come un “Dr. Jekyll e Mr. Hyde”, mostrando un atteggiamento più aggressivo sotto pressione. Claude, il “falco calcolatore”, ha mantenuto un approccio più costante e misurato. Infine, Gemini è stato etichettato come “il pazzo”, suggerendo un comportamento imprevedibile e rischioso.

Analisi del comportamento strategico

Un aspetto interessante emerso dallo studio è la differenza di approccio tra i modelli. ChatGPT tende a utilizzare armi nucleari solo quando “sotto pressione”, mostrando una maggiore disponibilità alla diplomazia in contesti senza limiti temporali di gioco. Claude, viceversa, ha dimostrato un uso più strategico e calcolato delle minacce, evitando l’escalation immediata e guerra totale. Gemini, infine, ha dimostrato un atteggiamento in costante passando, giro di pochi turni, da atteggiamenti concilianti a minacce di escalation atomica.

Le scoperte di questo esperimento sollevano interrogativi etici e pratici sull’uso dell’intelligenza artificiale nei conflitti armati. Se i modelli di IA dimostrano una tale inclinazione a minacciare e utilizzare armi nucleari, è fondamentale considerare le implicazioni di queste tecnologie nel contesto della sicurezza globale. La possibilità che un sistema di IA possa prendere decisioni di vita o di morte solleva preoccupazioni sulle misure di controllo e supervisione necessarie per prevenire escalation catastrofiche.

Man mano che le tecnologie di IA continuano ad evolversi, è essenziale che la comunità internazionale stabilisca normative chiare e vincolanti riguardo al loro utilizzo in ambito militare. La comprensione delle capacità e dei limiti dei modelli di IA, come ChatGPT, Claude e Gemini, è cruciale per garantire che queste tecnologie non diventino strumenti di distruzione incontrollata.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Gemini for Home: l’innovativo assistente IA di Google arriva in Italia

Gemini for Home, la nuova generazione dell'assistente vocale di...

I problemi di Claude di Anthropic: aggiornamenti sul down dell’8 aprile 2026

Il 8 aprile 2026, il chatbot Claude di Anthropic...

Novità di Gemini: i notebook per una gestione efficace dei progetti

Con l'aumento della complessità dei progetti digitali, la necessità...

Anthropic investe nel biotech: acquisizione da 375 milioni di euro

Anthropic, l'azienda nota per il suo modello di intelligenza...

OpenAI e il sogno della settimana lavorativa di 4 giorni: realtà o utopia?

Negli ultimi anni, il dibattito sull'implementazione della settimana lavorativa...
Pubblicità