Dipendenti di Google DeepMind si oppongono all’uso militare dell’AI

I dipendenti di Google DeepMind hanno lanciato un chiaro messaggio alla dirigenza: non vogliono che l’intelligenza artificiale (AI) venga utilizzata per scopi militari. Questa posizione si manifesta attraverso una serie di richieste formali e un ultimatum, che mette in evidenza un crescente dibattito etico all’interno del settore dell’AI.

Le richieste dei dipendenti di DeepMind

Oltre a chiedere il riconoscimento ufficiale di due sindacati, CWU e Unite the Union, i ricercatori di DeepMind hanno avanzato tre richieste specifiche:

Pubblicità
  • Ripristino dell’impegno etico: I dipendenti vogliono che Google si impegni a non sviluppare armi o strumenti di sorveglianza basati sull’AI, un principio che era stato abbandonato nel tempo.
  • Supervisione etica indipendente: È fondamentale la creazione di un organismo che monitori e valuti l’uso etico delle tecnologie AI sviluppate.
  • Diritti individuali di rifiuto: Ogni dipendente dovrebbe avere il diritto di rifiutare di lavorare su progetti che considerano moralmente discutibili.

Il contesto dell’accordo con il Pentagono

La protesta di DeepMind è stata innescata da un accordo confidenziale firmato da Google con il Pentagono per fornire modelli di AI all’esercito statunitense. Questa mossa ha suscitato preoccupazioni tra i ricercatori, i quali temono che il loro lavoro possa essere utilizzato in operazioni militari, contravvenendo ai principi etici stabiliti in passato. La questione non è nuova; nel 2018, un simile accordo legato al Progetto Maven aveva già scatenato una forte opposizione interna, portando Google a rinunciare al contratto.

Il panorama attuale dell’AI e della difesa militare

Negli ultimi anni, sempre più aziende nel settore dell’AI, come Anthropic, OpenAI e Gemini, hanno intrapreso collaborazioni con enti militari. Anthropic ha addirittura vinto una causa contro l’amministrazione Trump riguardo a un contratto con il Pentagono, evidenziando quanto sia complesso e controverso il rapporto tra intelligenza artificiale e difesa. Queste collaborazioni pongono interrogativi cruciali sull’etica e l’uso responsabile delle tecnologie emergenti, in particolare in contesti sensibili come quelli militari.

La richiesta di un impegno ufficiale e di una maggiore etica nell’uso dell’AI non è solo una questione interna a Google DeepMind, ma riflette una tendenza più ampia nel settore. I dipendenti si trovano in una posizione cruciale per influenzare le decisioni aziendali e, attraverso il riconoscimento sindacale, sperano di ottenere una forza contrattuale che possa garantire la protezione dei loro valori etici.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Imparare a programmare nell’era dell’AI: perché è ancora fondamentale

Con l'emergere di strumenti avanzati come ChatGPT e Claude,...

Remy e Hatch: i nuovi agenti AI di Google e Meta in arrivo

Nel panorama in continua evoluzione dell'intelligenza artificiale, Google e...

AMD in crescita grazie all’intelligenza artificiale: il futuro dei chip AI

La recente corsa all'intelligenza artificiale ha portato AMD a...

OpenAI presenta il suo agent-phone: l’intelligenza artificiale al servizio degli utenti

OpenAI sta per lanciare un dispositivo innovativo, l'agent-phone, che...

Microsoft abbandona Gaming Copilot: nuove strategie per Xbox

Microsoft ha recentemente annunciato la chiusura di Gaming Copilot,...
PubblicitÃ