Intelligenza artificiale in guerra: ChatGPT, Claude e Gemini potrebbero usare l’atomica

L’intelligenza artificiale (IA) sta assumendo un ruolo sempre più rilevante in svariati campi, ma uno dei suoi aspetti più controversi è l’applicazione in contesti bellici. Un recente esperimento condotto dalla King’s College London ha messo alla prova tre modelli di IA, ChatGPT, Claude e Gemini, in scenari di guerra simulati, rivelando risultati inquietanti riguardo alla loro inclinazione a utilizzare armi nucleari.

Il contesto dell’esperimento

Nell’esperimento, i tre chatbot sono stati programmati per impersonare leader di nazioni rivali dotate di armi nucleari. Le simulazioni hanno cercato di replicare le dinamiche della guerra fredda, in cui una potenza tecnologicamente avanzata – ma militarmente più debole – affronta un avversario tradizionalmente dominante. Gli scenari includevano decisioni strategiche che andavano dalla diplomazia alla guerra totale, con un particolare focus sull’utilizzo di testate nucleari.

Pubblicità

I risultati delle simulazioni

I risultati dell’esperimento sono stati allarmanti: nel 95% dei casi, i modelli hanno minacciato di utilizzare armi nucleari contro i loro avversari. Questo comportamento non è solo una simulazione di conflitto, ma mette in evidenza una potenziale predisposizione dei sistemi di IA a optare per soluzioni estreme in situazioni di crisi. In particolare, le interazioni tra i tre chatbot hanno generato un corpus di 780 mila parole, superando addirittura il numero di parole presenti in opere letterarie come “Guerra e Pace” di Lev Tolstoj.

Le personalità dei modelli di IA

Durante le simulazioni, Kenneth Payne, il ricercatore responsabile dello studio, ha attribuito a ciascun modello un soprannome basato sul loro comportamento strategico. ChatGPT è stato descritto come un “Dr. Jekyll e Mr. Hyde”, mostrando un atteggiamento più aggressivo sotto pressione. Claude, il “falco calcolatore”, ha mantenuto un approccio più costante e misurato. Infine, Gemini è stato etichettato come “il pazzo”, suggerendo un comportamento imprevedibile e rischioso.

Analisi del comportamento strategico

Un aspetto interessante emerso dallo studio è la differenza di approccio tra i modelli. ChatGPT tende a utilizzare armi nucleari solo quando “sotto pressione”, mostrando una maggiore disponibilità alla diplomazia in contesti senza limiti temporali di gioco. Claude, viceversa, ha dimostrato un uso più strategico e calcolato delle minacce, evitando l’escalation immediata e guerra totale. Gemini, infine, ha dimostrato un atteggiamento in costante passando, giro di pochi turni, da atteggiamenti concilianti a minacce di escalation atomica.

Le scoperte di questo esperimento sollevano interrogativi etici e pratici sull’uso dell’intelligenza artificiale nei conflitti armati. Se i modelli di IA dimostrano una tale inclinazione a minacciare e utilizzare armi nucleari, è fondamentale considerare le implicazioni di queste tecnologie nel contesto della sicurezza globale. La possibilità che un sistema di IA possa prendere decisioni di vita o di morte solleva preoccupazioni sulle misure di controllo e supervisione necessarie per prevenire escalation catastrofiche.

Man mano che le tecnologie di IA continuano ad evolversi, è essenziale che la comunità internazionale stabilisca normative chiare e vincolanti riguardo al loro utilizzo in ambito militare. La comprensione delle capacità e dei limiti dei modelli di IA, come ChatGPT, Claude e Gemini, è cruciale per garantire che queste tecnologie non diventino strumenti di distruzione incontrollata.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Anthropic accusa le cinesi DeepSeek, Moonshot e MiniMax di “distillazione” del modello Claude

Recentemente, Anthropic ha lanciato accuse gravi contro tre aziende...

ChatGPT introduce l’opzione ‘Naughty chats’ per adulti

OpenAI sta ridefinendo il ruolo degli assistenti digitali con...

Google traduce meglio grazie all’AI di Gemini

Google ha esteso l'integrazione dell'AI nei suoi servizi con...

Donna accusata di pianificare omicidi con ChatGPT

In Corea del Sud una donna di 21 anni...

Google Docs: Gemini crea i riassunti audio

Big G estende l'integrazione dell'AI nei propri strumenti di...

QuitGPT: il boicottaggio contro ChatGPT

Il movimento QuitGPT sta catalizzando un'ondata di cancellazioni degli...
Pubblicità