Tecnologia per detectar emocions, entre els límits tècnics i els dubtes ètics
Alguns sistemes marquen els estats emocionals a partir de la imatge del rostre (Flickr)

Tecnologia per detectar emocions, entre els límits tècnics i els dubtes ètics

Els sistemes de reconeixement facial i intel·ligència artificial per detectar els estats emocionals s'utilitzen en àmbits com la selecció de personal o en seguretat, però aquestes tecnologies encara no són prou fiables i poden generar decisions esbiaixades

Xavier DuranActualitzat

La policia xinesa està utilitzant sistemes de reconeixement facial i intel·ligència artificial per detectar els estats emocionals dels uigurs que interroga, segons ha revelat la BBC.

A diverses comissaries posen la persona en una cadira amb lligadures metàl·liques als canells i als turmells. I registren minut a minut les seves expressions facials, per intentar esbrinar si es troba en un estat mental "negatiu o angoixat".

Es tracta d'una aplicació extrema de la tecnologia de reconeixement facial i identificació d'emocions que s'afegeix a tota la repressió que està patint aquesta minoria nacional i religiosa.

Més enllà d'aquests atacs als drets humans, cal preguntar-se també si aquesta tecnologia, que s'aplica en àmbits diversos com la selecció de personal o en seguretat, és prou fiable i si fer-la servir és ètic.

"Les tècniques d'intel·ligència artificial han progressat molt els darrers anys, sobretot gràcies al 'deep learning'", l'aprenentatge profund, explica al 324.cat Sergio Escalera, investigador del Centre de Visió per Computador (CVC) i catedràtic d'Informàtica de la Universitat de Barcelona. Hi afegeix: "Continua tenint limitacions, per exemple en el reconeixement facial."

"Depèn del lloc on és la cara, de la postura, la il·luminació, cap on mira, els músculs que contreu, l'edat que aparenta, el gènere, el color de la pell..."

I si existeixen aquestes limitacions, simplement per identificar una persona pel rostre, encara és més complicat esbrinar el seu estat emocional:

"Cal ser rigorosos. Podem reconèixer expressions facials, però no podem assegurar que corresponen a un estat mental concret. Fins i tot podem classificar i dir, per exemple, que una expressió s'associa amb l'estat que anomenem 'happiness', felicitat. Però ni així no podem afirmar que la persona interiorment estigui feliç."

Per establir l'estat emocional, assenyala, cal mirar altres variables fisiològiques. Per tot això, la tecnologia s'ha d'elaborar amb el concurs d'altres professionals, com ara psicòlegs i neuròlegs.
 

Les categories d'emocions

D'entrada, fer categories d'estats emocionals és molt complicat. Als anys 60 del segle passat, el psicòleg social nord-americà Paul Ekman va viatjar a Papua Nova Guinea per comprovar la seva hipòtesi que els humans exhibeixen un nombre limitat i universal d'emocions, que són innates. Va establir sis categories: alegria, tristesa, fàstic, por, ira i sorpresa.

Les seves teories han estat molt discutides. En l'anàlisi més recent, publicat el 2019 a Psychological Science in the Public Interest, un grup de psicòlegs encapçalat per Lisa Feldman Barrett, de la Universitat del Nord-est de Boston, concloïa, després d'una àmplia revisió d'estudis, que aquesta teoria no era prou sòlida.

Així, s'hi afirma: "Les proves científiques disponibles suggereixen que la gent somriu de vegades quan està feliç, arronsa el front quan està trista, mira fixament quan està enfadada, etc.", més sovint del que indicaria l'atzar. Però hi afegeix això:

"Però la manera com la gent comunica ira, disgust, por, felicitat, tristesa i sorpresa varia substancialment a través de les cultures, les situacions i fins i tot en la persona en cada situació individual."

Tot i així, la classificació d'Ekman va ser adoptada, potser perquè era prou senzilla per adaptar-hi les capacitats de les tecnologies existents. Ekman va vendre el seu sistema a l'autoritat de Seguretat en el Transport dels Estats Units, després dels atemptats de l'11 de setembre del 2001. Així intentaven detectar persones amb por o estrès i que poguessin ser terroristes. Però això té lògiques limitacions, perquè una persona en un aeroport pot sentir por o estar nerviosa per causes molt diverses.

També la fan servir molts sistemes creats per diverses empreses. Però Ekman, ara retirat i que continua defensant la seva teoria, declarava fa poc al Financial Times que moltes vegades s'aplica inadequadament:

"No crec en moltes de les últimes recerques, no han estat reproduïdes i sembla que estan dirigides ideològicament."

 

Controls a les escoles i selecció de personal

Tot i així, les tecnologies de reconeixement d'emocions s'utilitzen a molts llocs. L'any passat es feia servir al True Light College, una escola de secundària per a noies de Hong Kong, el sistema desenvolupat per l'empresa 4 Little Trees. Les expressions facials i els més petits moviments de músculs serveixen, afirmen, per conèixer el seu estat emocional a classe i fins i tot predir estats futurs.

Segons Vicky Lim, antiga professora i fundadora de l'empresa, el nombre d'escoles de Hong Kong que utilitzen el seu sistema va passar el 2020 de 34 a 83.

Amb sistemes desenvolupats per diferents empreses, la tecnologia de reconeixement d'emocions s'utilitza en diversos àmbits. Un és la selecció de personal. Però fins i tot una de les empreses que s'hi dediquen, HireVue, va anunciar al gener que ja no faria servir més aquest sistema, perquè havia arribat a la conclusió que, a la majoria de llocs de treball i d'activitats, l'anàlisi visual no estava correlacionada amb el possible rendiment laboral o altres paràmetres que valoraven.

Hi ha altres usos menys problemàtics. Disney ho ha provat amb voluntaris per estudiar les reaccions a diverses pel·lícules. En el sector de l'automòbil, Ford, BMW, Kia i d'altres fabricants volen analitzar si es pot aplicar per detectar el nivell d'alerta dels conductors. I algunes empreses de màrqueting l'apliquen per conèixer la reacció de les persones a certs anuncis.

A banda d'això, també es fa servir el reconeixement facial i d'emocions en l'àmbit policial. Així s'ha assajat al Regne Unit. I aquest és un dels usos més controvertits. Segons explica Sergio Escalera al 324.cat, hi ha diferencia entre verificació i identificació:

"La segona consistiria a identificar una persona determinada entre grans grups de gent al carrer o en un establiment o una instal·lació esportiva o d'espectacles. És molt difícil que el sistema pugui reconèixer entre milers de persones que una cara concreta correspon a un individu determinat. Però la verificació parteix d'una base de dades més reduïda i serveix per esbrinar si una persona que té l'accés prohibit a un lloc intenta entrar-hi."

En aquest cas, el sistema només ha de decidir si la imatge correspon a la persona que és a la base de dades o no. I, fins i tot així, es tracta d'un sistema auxiliar, que requereix una comprovació.

Una persona s'identifica amb la cara en un aeroport (Delta News Hub/Flickr)


Biaixos perillosos

Aquests sistemes també tenen molts biaixos. Per exemple, s'ha vist que funcionen relativament bé en homes de pell blanca, però no tant en dones de pell blanca. I encara menys en homes de pell fosca i molt malament en dones de pell fosca, com demostrava el reportatge "Coded Bias" (Biaix codificat), de Shalini Kantayya.

Tots els sistemes aprenen amb els algoritmes que es creen i amb les dades que s'hi introdueixen. Els algoritmes no pensen ni senten, però les persones que els elaboren tenen els seus biaixos i de manera conscient o inconscient els poden traspassar a les fórmules matemàtiques.

Pel que fa a les dades, en una societat on existeix discriminació per gènere, ètnia o altres causes, la majoria d'informaicó que s'hi inclou pot estar esbiaixada i alguns grups estarien infrarepresentats o discriminats.

Per exemple, als Estats Units el percentatge d'afroamericans a la presó és molt superior al d'afroamericans a la població general i un sistema informàtic podria deduir que aquest grup és més propens a delinquir. Per això, Escalera creu que els sistemes poden ser un suport, però no els que han de decidir:

"Poden servir per ajudar els professionals, per conèixer algunes coses més i tenir informació addicional, però no pas per prendre decisions complexes. A les entrevistes de feina, per exemple, cal considerar un gran nombre de factors i fer una anàlisi global."

El problema, hi afegeix, és que "la tecnologia ha avançat molt més que la legislació". Per això creu que, d'entrada, cal conscienciar la gent sobre quines coses poden fer aquests sistemes i quines no.

 

Moratòries i prohibicions

Al seu darrer informe anual, corresponent al 2019, l'AI Institute, un centre interdisciplinari de recerca, demanava la prohibició, en certs casos, d'aquestes tecnologies de reconeixement d'emocions. Concretament, afirmava que no s'ha d'utilitzar per a decisions que tinguin impacte en la vida de les persones i en la igualtat d'oportunitats, perquè no són prou acurades i poden donar lloc a decisions esbiaixades.

També demanava prudència i aturar-ne certs usos, en un article a Nature, Kate Crawford, professora de la Universitat del Sud de Califòrnia i investigadora principal al Centre de Recerca de Microsoft a Nova York.

I a la Unió Europea, una aliança de més de 40 organitzacions civils ha demanat la total prohibició, no ja del reconeixement d'emocions, sinó del reconeixement facial en general.

Malgrat tot això, l'empresa d'estudis de mercat Markets and Markets preveu que la indústria de detecció d'emocions passi de facturar 19.500 milions de dòlars el 2020 a 37.100 milions el 2026.

De fet, aquestes tecnologies poden ser útils en certs casos. I en el Centre de Visió pe Computador tenen projectes interdisciplinars per aplicar-ho a neurorehabilitació, rehabilitació i rendiment esportiu, prevenció i detecció automàtica de riscos (com caigudes), suport diagnòstic en malalties mentals, o envelliment actiu, entre d'altres, en una feina conjunta de professionals diversos.

Però Escalera creu que s'ha d'estudiar bé com es desenvolupen i com s'apliquen:

"Estem molt lluny de poder analitzar estadis mentals complexos. Hem d'estudiar bé el context i fer-nos preguntes: si és superior el risc o el possible benefici, si realment significa una millora, si ajuda els professionals i fins a quin punt, si no discrimina… I utilitzar-ho sempre amb coneixement I prudència".

ARXIVAT A:
Tecnologia
Anar al contingut