Recentemente, un gruppo di investitori ha sollevato preoccupazioni nei confronti di Alphabet, la holding madre di Google, riguardo l’utilizzo dei suoi servizi di cloud e intelligenza artificiale (AI) da parte di governi, in particolare in contesti militari. Questi investitori, che rappresentano una massa gestita di circa 1,15 trilioni di dollari, hanno chiesto un incontro con il management per ottenere chiarimenti su come l’azienda gestisca i propri contratti con enti governativi.
La richiesta di responsabilità aziendale
La mobilitazione degli investitori deriva dalla necessità di comprendere in che modo Alphabet utilizzi le tecnologie cloud, che offrono una potenza di calcolo notevole. Sebbene progettate per scopi civili, queste tecnologie possono essere impiegate anche per attività di sorveglianza di massa o per supportare operazioni militari. Gli azionisti chiedono che l’azienda chiarisca quali protocolli siano in atto per evitare che i suoi strumenti diventino mezzi di violazione dei diritti umani, specialmente in mani di regimi autoritari o agenzie di intelligence.
Il nodo dell’intelligenza artificiale e della difesa
Un’altra area di preoccupazione è rappresentata dall’impiego dell’intelligenza artificiale. Gli investitori temono che gli algoritmi sviluppati da Google possano essere utilizzati in sistemi di difesa o di sorveglianza predittiva senza un’adeguata supervisione etica. Le tecnologie di AI, progettate per analizzare dati e supportare decisioni, possono essere sfruttate sia in contesti civili, come la sanità, sia in ambiti militari, per attività come l’analisi di immagini o la pianificazione operativa.
I contratti di Google con i governi: un quadro complesso
Nonostante Google abbia storicamente mantenuto un’immagine pubblica distante dal settore militare, recenti contratti raccontano una storia diversa. Ad esempio, il Project Nimbus, un accordo di circa 1,2 miliardi di dollari con il governo israeliano, prevede la fornitura di infrastrutture cloud e strumenti di AI anche a ministeri e apparati della difesa. Inoltre, Google ha collaborato con il Dipartimento della Difesa degli Stati Uniti, in particolare durante il programma Project Maven, dedicato all’analisi di immagini da droni.
Recentemente, l’azienda ha siglato un nuovo accordo classificato che permette al Pentagono di utilizzare i suoi modelli di AI per funzioni come la pianificazione operativa e il targeting, un uso che solleva ulteriori interrogativi etici. Altri contratti citati dagli investitori includono attività legate all’immigrazione negli Stati Uniti e collaborazioni in paesi come l’Arabia Saudita, considerati ad alto rischio per i diritti umani e la sorveglianza.
La posizione ufficiale di Alphabet
In risposta alle preoccupazioni sollevate, Alphabet ha sostenuto che le informazioni fornite al pubblico e agli investitori siano sufficienti per coprire i rischi associati alle sue operazioni. Tuttavia, la richiesta di maggiore trasparenza da parte degli investitori indica una crescente domanda di responsabilità nel settore tecnologico, in particolare riguardo l’uso di tecnologie avanzate come l’intelligenza artificiale e il cloud computing.
La questione dell’uso militare dell’AI e dei servizi di cloud da parte di aziende come Google è destinata a rimanere al centro del dibattito pubblico e degli investimenti. Con l’evoluzione delle tecnologie, sarà fondamentale garantire che l’innovazione non comprometta i diritti umani e la sicurezza globale. Mentre Alphabet e altre aziende del settore tecnologico continuano a esplorare nuove frontiere, il monitoraggio e la regolamentazione delle loro operazioni saranno essenziali per garantire un futuro etico.

