I chatbot basati sull'intelligenza artificiale (IA) possono rappresentare un grande aiuto e un sollievo in molti settori, offrendo risposte rapide e automatizzando il servizio clienti. Tuttavia, una domanda cruciale emerge quando questi sistemi commettono errori: chi è effettivamente responsabile se un chatbot causa un danno o fornisce informazioni fuorvianti? Un recente verdetto di un tribunale canadese ha finalmente offerto chiarezza su questa questione, condannando una compagnia aerea per le informazioni errate diffuse dal suo chatbot di servizio clienti riguardo a uno sconto speciale.

Sui siti web di molte grandi aziende, il piccolo chatbot – spesso con un nome accattivante – che appare improvvisamente offrendo assistenza è diventato uno standard. Questa tecnologia basata sull'IA può alleggerire il carico del servizio clienti e fornire risposte utili agli utenti in tempi brevi. Tuttavia, come dimostra un caso specifico dal Canada, anche l'IA è soggetta a errori. La sentenza emessa di recente, tuttavia, chiarisce in modo inequivocabile dove risiede la responsabilità per gli errori commessi da un chatbot di servizio clienti.

Il chatbot di servizio clienti fornisce informazioni errate

La vicenda che ha portato a questa significativa sentenza risale al novembre 2022. A causa della morte di sua nonna, Jake Moffatt dovette volare con urgenza da Vancouver a Toronto. In situazioni così delicate, la compagnia aerea Air Canada offre le cosiddette "tariffe di lutto" (bereavement fares), che consentono di ottenere uno sconto sui biglietti prenotati con breve preavviso. Per facilitare la sua ricerca e comprendere meglio le condizioni, Moffatt ha deciso di interrogare il chatbot della compagnia aerea riguardo a queste tariffe speciali.

La risposta del chatbot, in sintesi, fu che Moffatt avrebbe potuto acquistare inizialmente un biglietto a prezzo pieno e poi, entro i successivi 90 giorni, presentare una richiesta per un rimborso parziale. Questa informazione, fornita da un sistema automatizzato che si presume affidabile, ha guidato le azioni di Moffatt in un momento già di per sé difficile e stressante. Egli si è affidato completamente all'affermazione del chatbot di servizio clienti, procedendo all'acquisto di due biglietti aerei con la ferma convinzione di poter ottenere il rimborso in un secondo momento, così come gli era stato promesso virtualmente.

Tuttavia, quando Moffatt tentò di far valere uno sconto di circa 520 euro (che al cambio attuale equivaleva a circa 760 dollari canadesi) post-acquisto, ebbe una brutta sorpresa. Il chatbot si era sbagliato. La politica di Air Canada per le tariffe di lutto è infatti molto chiara e rigida: chi desidera usufruire di una tariffa per lutto deve farlo presente esplicitamente e direttamente al momento dell'acquisto del biglietto. La compagnia aerea, in nessun caso, concede questo tipo di sconto retroattivamente. Questa discrepanza tra l'informazione fornita dal chatbot e la politica aziendale reale ha lasciato Moffatt in una posizione difficile, avendo pagato il prezzo pieno senza possibilità di rimborso.

Approfondimenti sull'intelligenza artificiale

Nel contesto più ampio dell'impatto dell'IA, la nostra rivista ha trattato altri argomenti rilevanti, mettendo in luce sia il potenziale che le sfide associate a queste tecnologie emergenti:

  • Per la prima volta in una banca tedesca: la DKB rivoluziona completamente il supporto clienti! Queste sono le conseguenze per i clienti bancari.
  • Utenti di Google Gemini "quasi avvelenati": attenzione quando si cucina con l'IA – le istruzioni non sono sempre sicure.

Air Canada responsabile per tutte le informazioni

Sentendosi ingannato dal chatbot del servizio clienti e lasciato senza rimborso da Air Canada, Moffatt ha deciso di portare la compagnia aerea in tribunale. La questione centrale del contenzioso era la seguente: Air Canada aveva negligentemente rappresentato in modo errato la procedura per usufruire delle tariffe di lutto? In altre parole, si trattava di una dichiarazione fraudolenta per negligenza?

In un tentativo di difesa che ha suscitato un certo scalpore, Air Canada ha sostenuto di non essere responsabile per le informazioni "fornite da uno dei suoi agenti, impiegati o rappresentanti – inclusi i chatbot". Con questa argomentazione, la compagnia aerea ha di fatto suggerito "che il chatbot è un'entità giuridica autonoma, responsabile delle proprie azioni". Questa posizione, che tenta di disaccoppiare la responsabilità dell'azienda dalle azioni dei suoi sistemi automatizzati, ha posto una questione fondamentale sulla natura giuridica e la responsabilità delle intelligenze artificiali.

"Questo è un argomento notevole", ha commentato il tribunale con, forse, un accenno di ironia nel riferirsi alla tesi di Air Canada. In effetti, la questione di chi si assuma la responsabilità per le "azioni" dell'IA si porrà probabilmente con maggiore frequenza in futuro, man mano che queste tecnologie diventeranno sempre più sofisticate e autonome. In questo caso specifico, tuttavia, il tribunale ha deciso di non addentrarsi in una discussione troppo approfondita sullo status giuridico dei chatbot, optando invece per una risposta semplice quanto illuminante.

La sentenza del tribunale è stata chiara e diretta: "Anche se un chatbot ha una componente interattiva, è comunque solo una parte del sito web di Air Canada. Dovrebbe essere chiaro per Air Canada che è responsabile per tutte le informazioni presenti sul suo sito web. Non fa alcuna differenza se le informazioni provengono da una pagina web statica o da un chatbot." Questa argomentazione ribadisce il principio che una compagnia è responsabile per l'intero contenuto digitale che presenta al pubblico, indipendentemente dalla modalità con cui tale contenuto viene generato o interagituisce con l'utente.

I chatbot devono fornire informazioni affidabili

In definitiva, questo significa che i clienti devono poter fare affidamento sulle dichiarazioni fornite dai chatbot del servizio clienti delle aziende. Nel processo, Jake Moffatt è stato indubbiamente aiutato dagli screenshot che aveva meticolosamente realizzato durante la sua conversazione con il chatbot. Questi screenshot hanno fornito una prova inconfutabile delle informazioni errate che gli erano state date. Il tribunale, d'altra parte, non ha riconosciuto alcun obbligo per i clienti di verificare ulteriormente le informazioni fornite da un'IA aziendale, ponendo l'onere della correttezza interamente sull'azienda che impiega tali sistemi.

Dal punto di vista finanziario, il caso Moffatt contro Air Canada riguardava importi relativamente modesti – almeno nella prospettiva di una grande azienda. La compagnia aerea dovrà ora pagare a Moffatt 812,02 dollari canadesi, che equivalgono a circa 558 euro, a titolo di risarcimento danni e spese processuali. Sebbene la somma possa sembrare esigua per un'azienda delle dimensioni di Air Canada, la sentenza stabilisce un importante precedente, sottolineando la responsabilità delle aziende per le informazioni fornite dai loro chatbot e fornendo una tutela significativa per i consumatori nell'era digitale.

Questo verdetto serve da monito per tutte le aziende che utilizzano o intendono implementare chatbot basati sull'IA nei loro servizi clienti. La tecnologia, per quanto avanzata, non esonera l'azienda dalla responsabilità delle informazioni che essa veicola. Al contrario, la fiducia dei clienti e la reputazione aziendale dipendono dalla accuratezza e affidabilità di tutti i canali di comunicazione, inclusi quelli gestiti da intelligenze artificiali. Il caso Air Canada sottolinea l'imperativo per le aziende di garantire che i loro chatbot siano programmati e gestiti con la massima cura e precisione, affinché non compromettano la credibilità e la correttezza del servizio offerto.