I chatbot sono utilizzati in modo sempre più diffuso per fornire servizi che fino a poco tempo fa prevedevano l’impiego di un operatore umano. In futuro i contact center saranno sempre più automatizzati e, con tutta probabilità, interagiremo sempre più frequentemente con delle macchine per richiedere informazioni, assitenza e completare task.
Ma cosa succede quando un chatbot cade in errore? Di chi è la responsabilità di eventuali danni? Per rispondere a questa domanda possiamo analizzare un caso che ha recentemente coinvolto la compagnia aerea Air Canada, il cui chatbot avrebbe fornito delle indicazioni sbagliate ad un utente portandolo ad acquistare un biglietto a prezzo pieno.
Air Canada must honor refund policy invented by airline’s chatbot https://t.co/PMCC6V4opG
— Ars Technica (@arstechnica) February 16, 2024
Accortosi dell’errore il cliente avrebbe poi richiesto un rimborso che in un primo momento gli sarebbe stato però negato. La vicenda risalirebbe al 2022 e in pratica egli avrebbe avuto diritto ad accedere ad una tariffa agevolata in quanto il viaggio che doveva affrontare era necessario per la partecipazione al funerale di un familiare.
Una volta ricevuta la richiesta della "tariffa di lutto", il chatbot avrebbe risposto che questa non poteva essere applicata immediatamente. Quindi il cliente avrebbe dovuto pagare la tariffa prevista per qualsiasi altro viaggiatore e, solo successivamente, richiedere un rimborso della differenza entro 90 giorni dal completamento dell’operazione.
In realtà, invece, la compagnia non prevede di effettuare rimborsi per viaggi già avvenuti. Ciò avrebbe costretto l’utente a rivolgersi ad un tribunale dove sarebbero state riconosciute le sue ragioni. Secondo il giudice infatti un chatbot non rappresenterebbe un’entità separata, con responsabilità propria, e un’azienda dovrebbe essere ritenuta responsabile per tutte le modalità con cui fornisce le proprie informazioni.