I dipendenti di Google DeepMind hanno lanciato un chiaro messaggio alla dirigenza: non vogliono che l’intelligenza artificiale (AI) venga utilizzata per scopi militari. Questa posizione si manifesta attraverso una serie di richieste formali e un ultimatum, che mette in evidenza un crescente dibattito etico all’interno del settore dell’AI.
Le richieste dei dipendenti di DeepMind
Oltre a chiedere il riconoscimento ufficiale di due sindacati, CWU e Unite the Union, i ricercatori di DeepMind hanno avanzato tre richieste specifiche:
- Ripristino dell’impegno etico: I dipendenti vogliono che Google si impegni a non sviluppare armi o strumenti di sorveglianza basati sull’AI, un principio che era stato abbandonato nel tempo.
- Supervisione etica indipendente: È fondamentale la creazione di un organismo che monitori e valuti l’uso etico delle tecnologie AI sviluppate.
- Diritti individuali di rifiuto: Ogni dipendente dovrebbe avere il diritto di rifiutare di lavorare su progetti che considerano moralmente discutibili.
Il contesto dell’accordo con il Pentagono
La protesta di DeepMind è stata innescata da un accordo confidenziale firmato da Google con il Pentagono per fornire modelli di AI all’esercito statunitense. Questa mossa ha suscitato preoccupazioni tra i ricercatori, i quali temono che il loro lavoro possa essere utilizzato in operazioni militari, contravvenendo ai principi etici stabiliti in passato. La questione non è nuova; nel 2018, un simile accordo legato al Progetto Maven aveva già scatenato una forte opposizione interna, portando Google a rinunciare al contratto.
Il panorama attuale dell’AI e della difesa militare
Negli ultimi anni, sempre più aziende nel settore dell’AI, come Anthropic, OpenAI e Gemini, hanno intrapreso collaborazioni con enti militari. Anthropic ha addirittura vinto una causa contro l’amministrazione Trump riguardo a un contratto con il Pentagono, evidenziando quanto sia complesso e controverso il rapporto tra intelligenza artificiale e difesa. Queste collaborazioni pongono interrogativi cruciali sull’etica e l’uso responsabile delle tecnologie emergenti, in particolare in contesti sensibili come quelli militari.
La richiesta di un impegno ufficiale e di una maggiore etica nell’uso dell’AI non è solo una questione interna a Google DeepMind, ma riflette una tendenza più ampia nel settore. I dipendenti si trovano in una posizione cruciale per influenzare le decisioni aziendali e, attraverso il riconoscimento sindacale, sperano di ottenere una forza contrattuale che possa garantire la protezione dei loro valori etici.

