Nelle scorse ore si è diffusa la notizia secondo cui Facebook avrebbe bloccato due chatbot basati sull’Intelligenza Artificiali perché "colpevoli" di aver cominciato ad utilizzare una lingua diversa dall’Inglese nel comunicare tra loro. I due robot avrebbero creato un proprio linguaggio per ottimizzare lo scambio di informazioni.
Quanto accaduto è stato commentato da diverse testate giornalistiche come la dimostrazione dei possibili rischi derivanti da uno sviluppo incontrollato di tali tecnologie; in realtà ci si sarebbe trovati davanti ad un’ennesima conferma del fatto che chi riporta tali notizie su periodici a grande diffusione è spesso impreparato riguardo agli argomenti trattati.
Per chiarire la vicenda, è necessario sottolineare che "Bob" e "Alice", questi i nomi dati dagli sviluppatori di Facebook ai due chatbot coinvolti, non avrebbero scelto di "parlare" una nuova lingua ribellandosi ai propri creatori e decidendo di scambiarsi segretamente dei messaggi incomprensibili. Alla base dei comportamenti registrati vi sarebbe invece il classico "errore umano".
In pratica i tecnici di Menlo Park avrebbero dimenticato di integrare gli algoritmi che gestiscono i due chatbot con un sistema di incentivi, sostanzialmente delle ricompense che li vincolassero all’utilizzo della lingua Inglese. In assenza di indicazioni differenti essi non avrebbero fatto altro che migliorare le comunicazioni utilizzando un linguaggio generato tramite l’adattamento dell’idioma di defaut.
Il problema rilevato sarebbe stato corretto in tempi abbastanza brevi, e senza particolari complicazioni, dopo aver arrestato temporaneamente i chatboot. Chi ha parlato Intelligenze Artificiali fuori controllo si è semplicemente sbagliato o, forse, ha ignorato volutamente alcuni aspetti della vicenda in favore della spettacolarizzazione.