El reconeixement facial s'obre pas a Europa: els riscos de la hipervigilància

A Europa fins a 32 països han fet servir o han provat aquesta tecnologia

Vicky Miró JuliàActualitzat

Càmeres d'alta resolució instal·lades en punts estratègics i un programa informàtic al darrere capaç de reconèixer les cares que es capten en directe. L'ús del reconeixement facial per part dels governs s'està estenent a Europa. Fins a 32 països europeus fan servir o han provat aquesta tecnologia. Atrau governs i també empreses perquè hi veuen una eina per gestionar la seguretat, abaratir tràmits i reduir el frau. 

L'últim cas és a Escòcia, on a l'octubre nou escoles del comtat de North Ayrshire van engegar un sistema de reconeixement facial perquè els alumnes paguessin el menjar. El van haver de retirar al cap de pocs dies perquè les autoritats de protecció de dades el van considerar "desproporcionat", com ja havia passat a França, Suècia o Polònia. 

El Parlament Europeu està preocupat per l'avenç d'aquests sistemes i ha demanat a la Comissió que reguli de forma més estricta una tecnologia polèmica per la capacitat de recopilar dades personals i vulnerar la privacitat. Vol evitar escenaris d'hipervigilància com els de la Xina, on el govern segueix en directe els passos dels ciutadans. 


Projectes controvertits a casa nostra 

A l'estiu, Mercadona va haver d'aturar un sistema automàtic de reconeixement facial a l'accés de 48 supermercats de tot l'Estat i va acceptar pagar la multa de 2,5 milions d'euros que li va imposar l'Agència Espanyola de Protecció de Dades. L'havia instal·lat contra l'opinió de l'Audiència Provincial de Barcelona amb l'argument d'aturar l'entrada de 37 lladres habituals que tenien una condemna en què s'incloïa un ordre d'allunyament d'aquests establiments.  

Experts en protecció de dades consideren el cas un exemple a estudiar per la desproporció entre la finalitat que es persegueix i les persones a qui s'aplica. "Tècnicament, significa que estaven processant les dades de totes les persones que estaven al voltant d'aquestes càmeres a l'accés: clients, repartidors, treballadors, nens, gent que passa i que finalment no entra a l'establiment però que és captada per la càmera", exposa Lorena Jaume-Palasí, investigadora en ètica i intel·ligència artificial a Ethical Tech Society i consultora del Parlament Europeu i la Comissió Europea. 

El problema és que aquesta tecnologia és tan invasiva com invisible, com apunta Genís Roca, consultor en transformació digital: "Quan veus una càmera no saps si simplement és un enregistrament en aquest espai per si hi ha un furt o si, al contrari, s'estan aplicant sistemes d'intel·ligència en temps real per identificar facialment la gent."  

"Quan veus una càmera, tu no ho saps si tenen reconeixement facial."

També Renfe va aturar un polèmic projecte per vigilar els viatgers en temps real. Els objectius que constaven a la licitació incloïen evitar aglomeracions per la Covid, que es colessin viatgers, però també elements discriminatoris com detectar si un usuari era home o dona, el seu estat d'ànim o fins i tot el seu origen ètnic. Tot plegat en nom de la protecció ciutadana i en el context de la lluita contra el terrorisme.

Càmeres de vigilància al carrer
Les càmeres de vigilància al carrer (Pexels)

Roca recorda que la prevenció dels delictes no és un argument vàlid per aplicar aquesta tecnologia de forma extensiva: "No es pot aplicar indiscriminadament a tota la ciutadania un sistema de reconeixement facial per si de cas." 

Un els aspectes que preocupa, però, és la falta de transparència, perquè actualment no existeix una llei que reguli aquesta tecnologia, sinó que es consulta el Reglament General de Protecció de Dades (RGPD) de la Unió Europea, que no obliga a informar del seu ús públic ni de les persones que en seran afectades. Segons Roca, caldria assegurar més control sobre l'aplicació d'aquests sistemes: "Això es pot saber, es pot consultar? Hi ha un registre públic? Està regulat en quins casos es pot fer servir o no? Hi ha mecanismes perquè la ciutadania, la societat civil, puguin auditar qui està fent servir això i en quins casos? Està tot per fer."

Una tecnologia amb errors i racisme

El Parlament Europeu reconeix que aquests sistemes d'intel·ligència artificial tendeixen a equivocar-se més sovint amb els grups ètnics minoritaris i per això ha demanat que es prohibeixin per al reconeixement automatitzat de persones en espais públics. 

Lorena Jaume-Palasí recorda que als Estats Units hi ha hagut força persones innocents detingudes per falsos positius.

"El que cal mirar no és si una tecnologia funciona bé el 90% de cops. Ens hem de pregunar què passa amb el 10% restant."


Prohibida allà on va néixer

De fet, als Estats Units la tecnologia està aturada al lloc on va néixer, a Silicon Valley, Califòrnia. Mentre que en algunes ciutats, com Nova York, hi ha més de 15.000 càmeres que fan reconeixement facial per a la policia, a San Francisco la van prohibir en considerar que comportava una vigilància secreta de la població.

Microsoft i Amazon també van prohibir a la policia que fes servir la seva tecnologia, després de reconèixer que comet errors i és racista. I empreses com Facebook han fet marxa enrere en el seu ús per etiquetar fotografies enmig de la seva pitjor crisi sobre l'ús de les dades dels usuaris.

De moment, la biometria genera més preguntes que respostes. "Es poden fer servir sense avisar-te? Pot ser que això estigui passant i que tu no ho sàpigues? Per exemple, vas a demanar un crèdit a un banc i et pregunten: 'Com va tot?'. I tu dius: 'Bé, bé', i resulta que infereixen per un reconeixement facial que és 'malament, malament', i per això no et donen el crèdit. És correcte, fer això? Hi ha molts dubtes", conclou Roca.

ARXIVAT A:
TecnologiaUnió Europea
VÍDEOS RELACIONATS
Anar al contingut