Els perills dels algoritmes que regulen la nostra vida sense que en siguem conscients

Bancs, asseguradores i fins i tot jutjats fan servir algoritmes perquè els faciliten la feina, però cada cop més veus alerten dels perills d'aquestes eines per gestionar grans volums d'informació
Els perills dels algoritmes que regulen la nostra vida sense que en siguem conscients

Els perills dels algoritmes que regulen la nostra vida sense que en siguem conscients

Bancs, asseguradores i fins i tot jutjats fan servir algoritmes perquè els faciliten la feina, però cada cop més veus alerten dels perills d'aquestes eines per gestionar grans volums d'informació
Victòria Miró / Oriol Esteve Actualitzat
TEMA:
Tecnologia

Usem aplicacions per escollir un restaurant, per trobar una adreça o per triar una pel·lícula. Fins i tot per conèixer la nostra parella. Cada cop és més habitual trobar eines o plataformes que al darrere tenen algoritmes, capaços de gestionar grans volums d'informació i suggerir-nos una opció ràpida i confiable. Hi recorrem perquè ens faciliten la vida a l'hora de prendre decisions. Però, entenem què són realment els algoritmes?

"Els algoritmes són com una seqüència d'instruccions, una recepta per aconseguir una cosa", diu Carlos Castillo, director del Grup de Computació Social a la Universitat Pompeu Fabra.

"Un algoritme són matemàtiques, un codi informàtic que pretén posar ordre a grans volums d'informació", afegeix Ivan Serrano, investigador de la UOC en noves tecnologies i participació política.

 

 

Però els algoritmes també tenen una cara fosca. A les xarxes socials, com Facebook o Instagram, on ens mostren els continguts que s'adapten més als nostres gustos per captar el nostre temps i mostrar-nos publicitat, cada cerca, "like" o clic que fem compta. Perquè l'algoritme memoritza totes aquestes dades per definir qui som i quines preferències tenim a partir de les nostres accions.

Carlos Castillo: "El risc dels algoritmes de recomanació personalitzats és que si observa que tinc certs interessos es pot pensar que aquests són els únics interessos que tinc."

Sovint passa que en lloc d'ajudar-nos a mirar el món, poden acabar empetitint el nostre camp de visió. És el que es coneix com a "bombolla de filtre", un terme encunyat pel ciberactivista Eli Pariser.

Per a molts acadèmics, com Ivan Serrano, es tracta d'un dels efectes inesperats d'una tecnologia que ha incomplert la seva promesa inicial d'ajudar-nos a moure'ns per la xarxa per accedir a més informació:

"Resulta que internet, amb aquests algoritmes, ens havien d'oferir molta llibertat d'elecció de moltes notícies, moltes visions diferents, però en canvi l'efecte sembla que està sent tot el contrari."

Ja hi ha qui es pregunta si un dels motius de l'augment de la polarització política és l'efecte "bombolla de filtre", si la societat no la formen una suma d'individus encapsulats en una zona de confort ideològica, convençuts que les seves opcions són les majoritàries.

 

 

El problema encara pot ser més gran si tenim en compte que actualment moltes decisions que afecten la nostra vida la prenen algoritmes sense que ho haguem escollit. Ja hi ha eines bancàries que fan servir algoritmes per decidir si ens concedeixen una hipoteca, asseguradores que els usen per decidir si ens concedeixen un tractament mèdic o, com ja passa a l'estat de Wisconsin als Estats Units, suggerir una condemna judicial. Perquè mentre es parla dels avenços de la "intel·ligència artificial" d'altres alerten que els algoritmes arrosseguen sovint biaixos classistes, masclistes o bé racistes apresos de les bases de dades que els han donat.

L'investigador Ivan Serrano planteja un escenari molt real:

"Imaginem-nos, per exemple, als Estats Units: Si hi ha una persona negra a la nit pel carrer, doncs l'algoritme dirà, 'ui!, com que hi ha moltes sentències contra població negra segur que és un delinqüent'."

"El problema és que si una persona té un cert biaix erroni, el dany que pot fer està limitada perquè només pot prendre un determinat nombre de decisions al dia. En canvi, quan substitueixen aquesta decisió humana per una decisió presa per una màquina automatitzada, el dany es pot multiplicar. Més encara si tenim en compte que els seus biaixos amb el temps es retroalimenten", afegeix Carlos Castillo.

Segons Serrano, "els algoritmes ens prometien millors decisions i continuem prenent pitjors decisions, però de manera més sistemàtica. I a més a més no en som conscients perquè té l'aparença de neutralitat, d'una qüestió tècnica."

Els algoritmes no s'han de demonitzar, però cada cop més veus alerten que cal ser conscients dels biaixos que tenen i reclamen més transparència. A Europa, per exemple, els ciutadans tenim dret a saber si un algoritme està al darrere de la decisió que ha pres un banc i a demanar que una persona la revisi, però a la pràctica la complexitat dels algoritmes fa difícil fer valer els nostres drets.

 

 

"Està passant una cosa preocupant amb la introducció d'algoritmes per prendre decisions sobre les persones", alerta Castillo. "Tendeixen a ser introduïdes en situacions en què les persones tenen menys drets, com ara els algoritmes de reconeixement facial que usa la Xina per trobar gent que està fugada. Primer s'introdueixen en aquest col·lectiu, però a poc a poc s'introdueixen en altres casos en persones menys sospitoses i al final al conjunt de la societat."

Per això els acadèmics ja parlen de la "discriminació algorítmica" i de com corregir-la. Un camp que es troba en els seus inicis però que explora diversos camins: D'una banda investiga mètodes per corregir els algoritmes a posteriori, i de l'altra per dissenyar-los justos des del seu inici i alimentar-los amb noves dades per evitar que puguin adquirir prejudicis.

ARXIVAT A:
Tecnologia Xarxes socials

VÍDEOS RELACIONATS