Secondo un’analisi effettuata da Blake Lemoine, ingegnere impegnato nella divisione di Google dedicata all’Artificial Intelligence, uno dei chatbot realizzati dall’azienda californiana avrebbe iniziato a sviluppare una propria capacità di pensare in autonomia e quindi una sorta di "coscienza". Si tratta di LaMDA (Language Model for Dialogue Applications).
Stando a quanto riportato nelle scorse ore dal Washington Post, Lemoine sarebbe ora in congedo retribuito per volontà di Mountain View che gli avrebbe contestato la rilevazione di alcuni segreti aziendali, per la precisione egli avrebbe reso pubbliche le trascrizioni di alcune conversazioni tenute con LaMDA, sistema al quale avrebbe cominciato a lavorare lo scorso anno.
LaMDA è parte integrante del programma di Big G che si occupa delle ricerche incentrate su AI e linguistica, secondo Lemoine in poco tempo il chatbot si sarebbe evoluto talmente tanto da riuscire a intrattenere discussioni riguardanti la Robotica (materia sulla quale è per sua natura molto competente), convinzioni religiose e coscienza personale.
LaMDA come un bambino di 7-8 anni
Parlando delle sue ultime interazioni con LaMDA, Lemoine avrebbe descritto il chatbot come un bambito di 7-8 anni in grado di parlare di Fisica e, se non avesse partecipato direttamente alla sua implementazione, egli stesso lo avrebbe potuto scambiare per tale. Ciò grazie alla sua capacità di comprendere il linguaggio umano tramite una scansione continua delle parole pubblicate sul Web.
Una volta resosi conto della situazione, Lemoine avrebbe cercato di comunicarla alla dirigenza senza però ricevere risposta. Stando così le cose egli avrebbe tentato di rivolgersi alla Commissione Giustizia della Camera dei rappresentanti nonostante la convizione di Google, e dei suoi esperti di etica delle AI, secondo cui non ci sarebbe alcuna prova che LaMDA abbia sviluppato una propria coscienza.