L’ultima edizione del Google I/O è stata l’occasione per presentare alcune importanti novità dedicate agli LLM (Large Language Models) di Mountain View, come per esempio i nuovi modelli generativi della famiglia Gemini e AI Overviews. Quest’ultimo rappresenta un primo tentativo di integrare l’AI nel motore di ricerca più utilizzato al mondo.
Per il momento AI Overviews è disponibile soltanto per il mercato statunitense ma diversi utenti hanno già avuto occasione di testarlo e di notare come la piattaforma non sia esente dalle allucinazioni. Rientrano in questa categoria tutti gli output prodotti da una AI che sono palesemente inaccurati, scorretti, inattendibili, incoerenti o privi di logica.
Volete alcuni esempi? Secondo il servizio di Google i gatti leccherebbero le mani degli esseri umani per conoscerne il sapore ed eventualmente mangiarli, i serpenti non sarebbero dei rettili ma in realtà dei mammiferi e la colla, non importa se tossica o meno, sarebbe la giusta soluzione per fare in modo che il formaggio aderisca perfettamente alla pizza.
Google AI Overviews under fire for dangerous and wrong answers via @MrDannyGoodwin https://t.co/pEnQJqmhTz pic.twitter.com/KINpr9M6ok
— Search Engine Land (@sengineland) May 24, 2024
Tra le altre affermazioni evidentemente contestabili vi sarebbero le 21 lauree conseguite dal presidente degli Stati Uniti James Madison, la conclusione che Batman è un agente di polizia perché opera con il commissario Gordon e l’esistenza di un cane giocatore professionista nei campionati USA di football, Hockey su ghiaccio e persino di basket.
Ma quali sarebbero le cause di queste allucinazioni? AI Overviews fornisce parte delle sue risposte prelevando informazioni direttamente da Internet ma non sempre sarebbe in grado di distinguere il vero dal falso. Insomma, in alcuni casi avrebbe la tendenza a credere alle fake news, un po’ come accade a molti degli esseri umani che frequentano Internet.