[ad_1]

L’anno scorso, ho condiviso le mie preoccupazioni sulla prevalenza prevalente di chatbot “femminili” con l’ex collega, Parmy Olson – che ha portato alla sua scrittura questo importante articolo sull’argomento. Quello che non ho visto allora, e che faccio solo ora, è che esiste un problema molto più grande che viene archiviato per le aziende che stanno implementando assistenti digitali e tecnologia di IA conversazionale.

Mentre Erica (chatbot di Bank of America) o Stacy (da Standard Chartered) sembrano esistere in netto contrasto con le dichiarazioni di tali organizzazioni sull’uguaglianza di genere (Qui e Qui) – la verità è che trasformare Erica in Ric o Stacey in Stan è solo una progettazione di avatar, un aggiornamento del database e un randomizzatore di distanza – mentre creare quello che potremmo chiamare un “Black-bot” è un’impresa molto più grande.

La scorsa settimana ho partecipato a un webinar di Voice Tech Global sull’affrontare il pregiudizio razziale verso la comunità nera con l’IA colloquiale. La registrazione è disponibile Qui. Ciò che mi ha spinto a questo evento è stato il riconoscimento che, mentre mi considero consapevole dei problemi, credo di poter solo iniziare a comprendere correttamente l’ingiustizia quando si tenta di sperimentarlo dal punto di vista della vittima, come leggere questo pezzo che parla della prospettiva afroamericana sulle ingiustizie finanziarie che continuano a persistere in America. A dire il vero, un tentativo di guardare attraverso gli occhi di un altro non è un sostituto per vivere una realtà: non posso mai conoscere l’esperienza di un altro, posso solo immaginarlo nel mio miglior sforzo per capire. Tuttavia, come un inglese relativamente ben parlato che cerca di farsi strada a Manhatten qualche anno fa, sono in sintonia con alcune delle esperienze menzionate durante la conversazione come Jamell Dacon’s storia di come le risposte al suo accento caraibico lo costringono a usare la sua “voce da uomo bianco” quando dice “acqua” a Siri. (Ho anche imparato a cambiare codice e anche a lottare con la pronuncia americana di ‘water’ – la versione inglese americana di Siri è molto confusa da me!

Oltre a sentire le esperienze quotidiane dei panelisti sul razzismo nel settore tecnologico, ciò che mi ha particolarmente colpito è stato il design strutturalmente razzista del prodotto. Prendiamo ad esempio Alexa: un utente nero potrebbe dover cambiare codice per farsi capire dall’assistente digitale di Amazon (che potrebbe anche essere incorporato in un altro dispositivo come un frigorifero intelligente o un’auto). Ciò che è stato scioccante è stata la reazione dei panelisti alla domanda: “ci sono buoni esempi di robot neri sul mercato”. La risposta fu una risata. Non ci sono robot neri. Inoltre, sarebbe molto difficile mettersi al lavoro nel modo giusto visti gli attuali contrasti.

Un problema è che l’inglese vernacolare afroamericano (AAVE) non è supportato da lex o da qualsiasi altro motore linguistico importante. Naturalmente, un marchio che sta cercando di creare un assistente digitale potrebbe dare alla propria IA un’identità “nera” attraverso il proprio nome o avatar (a parte, se qualcuno può fare ricerche migliori di me e trovare effettivamente un’implementazione di un chatbot “nero”, per favore fatemi sapere). Ma a meno che il bot non capisca e dialoghi con AAVE, allora è semplicemente l’equivalente digitale di indossare la faccia nera.

La conversazione sul webinar si è rivolta a come i marchi dovrebbero tracciare la linea su quali lingue o vernacolari supportare prima di rilasciare i loro prodotti – ma mi è rimasto il pensiero del problema degli utenti neri che imitano gli utenti bianchi perché la tecnologia non è in grado di gestire il contrario. Questo problema crea favolose opportunità per un’azienda abbastanza coraggiosa da affrontarlo, ma le espone ugualmente a un rischio reputazionale estremo qualora dovessero sbagliare.

Agli albori del web la pratica della catfishing ha creato il meme che “tutti sono cani su Internet”. Oggi stiamo semplicemente rinforzando il meme che “tutti devono essere bianchi con l’IA” non risolvendo il problema dei chatbot “neri”. La popolazione polacca è all’incirca la stessa della popolazione nera americana, ma il polacco è una lingua supportata per l’Assistente Google e AAVE no. La campagna Black Lives Matter ha sensibilmente aumentato la consapevolezza della disuguaglianza razziale – cerchiamo di combatterla ovunque la troviamo, in particolare con l’IA. Per chiarezza, ciò che sto chiedendo non è semplicemente AAVE per essere agganciato all’elenco sempre crescente di lingue e dialetti supportati dai motori linguistici di chat-bot, ma una maggiore espansività nella considerazione del linguaggio con queste tecnologie. Siri dovrebbe parlare e comprendere l’inglese e questo dovrebbe includere tutte le principali varietà tra cui inglese britannico, americano e AAVE – e nei mercati in cui è garantito, anche creolo e pidgin. In breve, i robot non dovrebbero essere “neri” o “bianchi” ma adattati a persone di tutti i colori. Al stesso tempo.

[ad_2]

Leave a Reply

Il tuo indirizzo email non sarà pubblicato.