AI, la rabbia e il call center
Una sperimentazione di intelligenza artificiale punta a proteggere gli operatori di call center dalla rabbia dei clienti. La tecnologia neutralizza la tonalità ma sorgono questioni etiche su altre forme potenziali di neutralizzazione

Alzi la mano chi tra noi non si è irritato, per usare un eufemismo, con operatori di call center. Non solo e non tanto con quelli dei call center outbound, cioè quelli che ti chiamano per venderti qualcosa, quanto con quelli inbound, a cui ci si rivolge per chiedere informazioni relative al prodotto o servizio che abbiamo acquisito. Diciamo che i primi sono predestinati a essere mandati al diavolo in modo più o meno urbano, mentre i secondi possono essere vittime della rabbia degli utenti consumatori, che si esprime in modi a volte irriferibili.
Come riporta il Financial Times, una delle società di tecnologia dell’impero giapponese SoftBank sta sviluppando un sistema, gestito dall’intelligenza artificiale, per proteggere i poveri umani che lavorano nei call center dalla furia dei clienti, nota come customer harassment. Nel senso che è il consumatore a perpetrarlo, non a subirlo.
TONO NEUTRO IN TEMPO REALE
Ma come funzionerebbe questo sistema? La tecnologia, ancora in fase sperimentale, è sviluppata da un istituto di ricerca sull’AI creato da SoftBank e dalla Università di Tokyo. L’obiettivo è quello di trasformare le a volte furibonde tirate del consumatore chiamante in una versione innocua e ammorbidita per le orecchie del povero operatore. Attenzione: si tratta ancora di una prima fase sperimentale e parliamo inoltre solo di una neutralizzazione della tonalità, non di sostituzione dei vocaboli e delle eventuali contumelie. Il che dovrebbe conferire al tutto una sensazione ancor più straniante, e non è chiaro se riuscirà a tenere tranquillo l’operatore, che potrebbe quindi essere insultato con o senza perifrasi ma con un tono di voce molto rilassato e finanche mellifluo.
Il “motore di cancellazione delle emozioni” è stato addestrato usando attori che si sono esibiti in un ricco repertorio di urla, strepiti e insulti. Nell’articolo del FT c’è un esempio di traccia audio originale e “ammorbidita”, per chi parla o comprende il giapponese. Dietro questa notizia, che a qualcuno potrebbe apparire uno scherzo, ci sono implicazioni di vasta portata. Oltre a quelle classiche sulla proprietà della voce, che in questo caso coinvolgerebbe in tempo reale il consumatore chiamante, c’è anche la “proprietà delle emozioni”, che l’intelligenza artificiale acquisirebbe in forma più o meno legale.
L’esperimento nasce in Giappone perché quel paese, che da sempre ha una cultura del servizio, online o in presenza, che letteralmente divinizza il cliente, si trova in crescente affanno: i casi di reazioni aggressive ai lavoratori dei servizi alla persona (commercio al dettaglio, ristoranti) si moltiplicano, al punto che nel paese è in corso una discussione sulla opportunità di introdurre la protezione legislativa per il personale aziendale contro le molestie dei clienti.
IL CLIENTE SMETTE DI AVER SEMPRE RAGIONE
A livello aneddotico, sono frequenti le lamentele dei lavoratori circa le richieste dei clienti, in presenza, di inginocchiarsi per chiedere scusa per mancanze o carenze del servizio, vere o immaginarie. In pratica, una legge anti customer harassment sarebbe una rivoluzione culturale per il Giappone, ponendo fine al dogma della infallibilità del cliente.
Il progetto di cancellazione delle emozioni a mezzo di intelligenza artificiale nasce con la finalità di proteggere, nel mondo online, i lavoratori dalle intemperanze dei clienti. In questa dimensione il problema è acuito a livello anagrafico, nel senso che spesso a sbroccare sono i clienti anziani, che hanno minore fluidità di interazione, oppure l’hanno persa. Al deterioramento della qualità del servizio concorre poi lo stress sugli organici, causato dalla contrazione demografica, che costringe i lavoratori a maggiori carichi di lavoro. I fenomeni di burnout e i problemi di salute mentale si moltiplicano.
Il problema etico di soluzioni di questo tipo, quindi, emerge da alcune domande che l’autore dell’articolo si pone. Rimuovere la rabbia in tempo reale dalla voce di qualcuno senza il permesso dell’interessato, o con tale permesso sepolto tra le righe del contratto di servizio, attraversa una linea rossa: il trattamento delle emozioni di una persona, o del suo tono di voce. Se si parte dalla rimozione della rabbia, cosa impedirà di neutralizzare altri stati d’animo verbalmente espressi? E se “qualcuno” decidesse che alcuni accenti regionali sono più problematici di altri e li neutralizzasse senza autorizzazione del loro “proprietario”?
Tra curiosità e inquietudini, il viaggio nell’AI prosegue.
Questo articolo è stato pubblicato quiLasciare un commento
Per commentare registrati al sito in alto a destra di questa pagina
Se non sei registrato puoi farlo qui
Sostieni la Fondazione AgoraVox