"Big data": tot el que sabem de tu

Un viatge pel món de les dades

Els algoritmes els fan persones i les dades que recullen i la forma com les processen es basen en el que els seus creadors han establert. N'hi ha que s'atreveixen a deduir la nostra ideologia, religió o orientació sexual, de manera que això pot tenir conseqüències que ens afectin molt profundament

Xavier Duran

Periodista científic de TV3

@xduran_e
TEMA:
Google
El "30 minuts" "Tot el que sabem de tu" mostra els perills del big data
El "30 minuts" "Tot el que sabem de tu" mostra els perills del big data

Recordeu on éreu i què fèieu fa exactament un any? La majoria de gent probablement, no, però Google, sí. La sociòloga Liliana Arroyo ho va mostrar a sis persones de diferents edats que vam reunir a l'Arxiu Nacional de Catalunya per gravar l'experiència.
El detall amb què Google ens coneix –o, en tot cas, amb què ens diu com creu que som- sorprèn, i és aleshores quan gent que no n'havia estat conscient veu la gran quantitat d'informació que té sobre nosaltres, perquè l'ha capturat o perquè l'ha deduït. Si teniu activada la ubicació, us podrà dir a quins llocs i a quines hores éreu un dia determinat, quins desplaçaments vau fer i quant vau trigar a fer-los. 

És un exemple molt gràfic del que volíem explicar en el "30 minuts" "Tot el que sabem de tu": que proporcionem moltes dades i que això permet que elaborin perfils sobre nosaltres, que ens coneguin molt bé. Però no totes les dades les proporcionem de manera conscient i voluntària. I tampoc no sabem què se'n fa. Que rebem publicitat personalitzada pot ser la cara més visible, però no és l'única ni la més important. El gran risc és que les dades es facin servir a l'hora de concedir o denegar un crèdit, contractar o no una assegurança mèdica o de vida, ser seleccionat o no per a una feina...
O bé que, sense haver-la proporcionat, es tingui informació sensible sobre nosaltres –que pot ser certa o falsa. 

 La sociòloga Liliana Arroyo va mostrar a sis persones la informació que Google té d'elles
La sociòloga Liliana Arroyo va mostrar a sis persones la informació que Google té d'elles


Hi ha algoritmes que a partir d'informació diversa, dels nostres contactes, de la nostra activitat, s'atreveixen a deduir la nostra ideologia, religió o orientació sexual, la nostra personalitat o el nostre nivell intel·lectual. No vol dir que l'encertin, però, ho facin o no, revelar-la, encara que sigui sense dir noms explícitament, pot significar no només una intromissió en la intimitat, sinó un greu perill.
I encara més si aquestes deduccions porten a decisions que ens afecten molt profundament. Ens deixaran contractar una pòlissa d'assegurances o ser clients d'una mútua mèdica? Ens donaran una feina o ens concediran un crèdit? Les decisions automatitzades s'estenen i ens diuen que són objectives, no com les persones, que tenen els seus biaixos i els seus dies bons i dolents i les seves simpaties i odis.

"Els algoritmes els fan persones i que les dades que capten i com les processen es basen en el que els seus creadors han establert"

Però resulta que els algoritmes els fan persones i que les dades que capten i com les processen es basen en el que els seus creadors han establert. I encara més: els sistemes que aprenen per si sols es nodreixen amb dades que reflecteixen com és la societat. Si als Estats Units hi ha molts més afroamericans que blancs a les presons, tot i ser un percentatge menor entre la població general, les màquines poden deduir que els primers són més propensos a delinquir. Què decidirà un algoritme alimentat amb aquestes dades sobre el risc de reincidència d'un afroamericà o d'un blanc? I si hi ha moltes menys dones en alts càrrecs executius, la màquina podria deduir que els homes estan més ben dotats per aquestes feines de responsabilitat. Com valorarà els aspirants i les aspirants a un càrrec?

Ensenyar aquests riscos era l'objectiu bàsic del programa. Però no podíem donar només la imatge negativa del "big data". Per això hem mostrat les múltiples aplicacions i els beneficis que pot tenir aquesta tecnologia. Que se superin les conseqüències negatives i discriminatòries depèn de les lleis, dels tecnòlegs i de les empreses, però també d'una societat conscienciada que empenyi cap al bon ús del "big data".
Hem entrevistat experts de diversos àmbits, perquè el "big data" requereix un enfocament plural. I mentre ho hem fet, segur que hem deixat en diversos llocs la nostra petjada en forma de dades. Esperem que, si algú les utilitza, sigui amb bones intencions.


 

ARXIVAT A:
Google

NOTÍCIES RELACIONADES

VÍDEOS RELACIONATS

Anar al contingut