Els algoritmes de reconeixement facial de Facebook identifiquen les persones negres amb primats (Reuters/Dado Ruvic)

Denuncien que Facebook ofereix "més vídeos de primats" quan en veus de persones negres

La companyia s'ha disculpat i ha desactivat l'algoritme de suggeriments
Josep Maria Camps Collet Actualitzat
TEMA:
Racisme

El dijous de la setmana passada, Darci Groves, extreballadora de Facebook, va penjar a Twitter una petició adreçada a la seva antiga empresa.

El motiu? Alertar-los que els algoritmes proposaven als que miraven vídeos sobre persones negres de veure "més vídeos de primats".

"Aquest missatge de "veure més vídeos de..." és inacceptable, Facebook. Malgrat que el vídeo té més d'un any, un amic va veure'l ahir. Amics de Facebook, sisplau, feu-ho arribar als responsables. Això és terrible."

 

 

Disculpes per les "recomanacions ofensives"

El diari nord-americà The New York Times va fer-se ressò de la denúncia de Groves el dia següent, divendres, i Facebook va reaccionar demanant perdó.

Ho va fer una portaveu de la companyia, Dani Lever, que va demanar disculpes a través del mateix diari "a totes les persones que hagin pogut veure aquestes recomanacions ofensives":

"Encara que hem fet millores en la nostra intel·ligència artificial, sabem que no és perfecte i que hem de fer més progressos."

Segons el diari nord-americà, a més de fer-ho a Twitter, Groves també va penjar la captura amb el suggeriment vexatori en un fòrum intern de Facebook per a empleats i exempleats.

En aquest fòrum va rebre la resposta d'un responsable del servei de vídeo Facebook Watch, que el va considerar "inacceptable" i va assegurar-li que "estaven estudiant la causa".


La solució: desactivar les recomanacions

De moment, la solució que ha trobat Facebook és simplement desactivar aquest tipus de suggeriments, per evitar que el missatge es reprodueixi en aquest o en altres vídeos similars.

El vídeo que ha generat la denúncia el va penjar a Facebook el diari britànic Daily Mail el juny del 2020 i acumula 10 milions de reproduccions i 11.000 comentaris.

Al vídeo es veu un home blanc denunciant per telèfon que un grup de negres l'estan assetjant i una patrulla de policia que deté un grup de joves negres.

Google i els "goril·les"

Els sistemes d'intel·ligència artificial de reconeixement facial han comportat problemes similars els últims anys a les grans companyies tecnològiques pel biaix racial o racista dels algoritmes.

El 2015, per exemple, un programador negre va denunciar que Google havia etiquetat les fotos d'ell amb un amic seu com a "goril·les". L'empresa es va disculpar i va dir que ho arreglaria.

Però segons la revista Wired, més de tres anys després, l'única solució que havien trobat per evitar-ho havia estat eliminar la categoria "goril·les" de l'algoritme.

Aquests problemes van portar l'any passat Amazon i Microsoft a deixar de vendre els seus programes de reconeixement facial a la policia dels Estats Units, per evitar discriminacions.


Un problema tecnològic?

Preguntada per com pot haver passat el cas en qüestió, la persona que l'ha denunciat, Darci Groves, ha suggerit que no és un problema tecnològic, sinó cultural:

"La intel·ligència artificial només pot ser un reflex dels sistemes i la cultura que l'han creada. No veig la manera que no estigui centrada en el supremacisme blanc, tret que fem l'esforç de desmantellar aquests sistemes."


 

 

ARXIVAT A:
Tecnologia Racisme Xarxes socials
El més llegit
AVUI ÉS NOTÍCIA
Anar al contingut