Alcuni giorni fa Gemini, il modello generativo multimodale di Google, ha manifestato dei seri problemi nella creazione delle immagini. I disservizi sono stati tali, e tante le segnalazioni da parte degli utilizzatori, che l’azienda californiana ha dovuto bloccare temporaneamente il servizio che potrebbe rimanere offline per alcune settimane.
Tra gli errori prodotti dall’Intelligenza Artificiale di Mountain View vi sarebbero stati tra l’altro alcuni falsi storici clamorosi, come per esempio immagini di soldati tedeschi asiatici o afrodiscendenti con insegne naziste nel 1943, vichinghi, papi o padri fondatori degli Stati Uniti dalla pelle nera o dai tratti orientali, papi di sesso femminile e così via.
Google pauses Gemini’s ability to generate AI images of people after diversity errors https://t.co/4ZsX1sJu3R
— The Verge (@verge) February 22, 2024
Tali "allucinazioni" sarebbero state la conseguenza delle regole introdotte per evitare che il sistema producesse degli output discriminanti. Fin qui tutto bene, l’intenzione era chiaramente quella di limitare i BIAS cognitivi, se non fosse che tali paletti sarebbero stati definiti senza tenere conto dai tanti possibili contesti di una richiesta.
Ad intervenire in proposito è stato anche il CEO di Alphabet, a cui Big G fa capo, un Sundar Pichai particolarmente seccato dall’accaduto. Riconoscendo che la responsabilità degli errori dovrebbe essere attribuita alla compagnia stessa, egli infatti avrebbe definito "del tutto inaccettabile" il fatto che Gemini abbia mostrato dei pregiudizi o offeso gli utenti.
Sundar Pichai addresses Gemini’s ‘unacceptable’ errors and ‘at scale’ fixes https://t.co/X13ok6nBgV
— 9to5Google (@9to5Google) February 28, 2024
Pichai ha inoltre sottolineato che Gemini sarebbe già in fase di miglioramento. è però anche vero che fino ad ora l’esperienza di Google nel comparto AI non è stata delle più fortunate, Gemini produsse errori grossolani già da quando si chiamava Bard e in molti ricorderanno le polemiche createsi attorno alle prime demo del servizio.