LaMDA (Language Model for Dialogue Applications) è il nome di un’Intelligenza Artificiale creata in seno ai laboratori di Google che a suo tempo fece notizia in quanto il suo responsabile, l’ingegnere Blake Lemoine, si disse convinto della sua transizione in essere senziente. A suo parere LaMDA poteva essere considerato il primo chatbot dotato di una coscienza.
Lemoine ha violato la policy aziendale di Google
Per quanto sia considerato un professionista validissimo nel suo campo, Lemoine sarebbe anche noto per essere un personaggio molto "particolare" con una certa tendenza alle esternazioni spettacolari, per questo motivo i vertici di Mountain View avevano deciso di allontanarlo dal suo posto di lavoro garantendogli comunque un congedo retribuito.
Nel corso delle settimane i rapporti tra la compagnia e il tecnico non sarebbero migliorati, tanto che alla fine Google avrebbe deciso di allontanare definitivamente Lemoine. Gli 11 processi di revisione a cui sarebbe stata sottoposta la AI coinvolta nella vicenda non avrebbero evidenziato la formazione di una coscienza, ciò a dimostrazione dell’infondatezza delle affermazioni dell’ex collaboratore.
Big G, come del resto gran parte degli esperti del settore, sarebbe convinta che per il momento le tecnologie disponibili non permettono di creare delle Intelligenze Artificiali senzienti, questo in piena contraddizione con le convinzioni di Lemoine secondo cui LaMDA sarebbe in grado di conversare alla pari degli esseri umani su temi come la filosofia e la religione.
Per motivare il licenziamento dell’ingegnere Google avrebbe fatto riferimento ad alcune rivelazioni effettuate da quest’ultimo durante il periodo in cui operava all’interno del gruppo, come per esempio parti di alcune conversazioni tenute con LaMDA, le policy alla società vietano infatti di rendere note informazioni riguardanti tecnologie che sono ancora in fase di sviluppo.