Cara coberta per marc fet per crear un trucatge de cara
Catalunya nit

La Xina s'avança i regula amb polèmica el trucatge intel·ligent de rostres

Pequín adopta regles perquè la persona escanejada aprovi el material manipulat que l'afecta, una mesura insuficient per esvair el temor a una apocalipsi informativa

La tecnologia Deepfake --el programari que permet intercanviar cares, veus i altres característiques per crear falsificacions digitals- s'ha utilitzat sovint els últims anys.

Un substitut sintètic d'Elon Musk va provocar una estafa de criptomoneda. Es va "despullar" digitalment més de 100.000 dones a Telegram. Es van robar milions de dòlars a diferents empreses imitant la veu dels seus executius al telèfon.

A la major part del món, les autoritats no hi poden fer gaire cosa. Fins i tot a mesura que el programari es fa més sofisticat i accessible, hi ha poques lleis per gestionar la seva propagació.

La Xina espera ser l'excepció. Pequín ha adoptat regles "expansives" que requereixen que el material manipulat tingui el consentiment del subjecte i porti signatures digitals o filigranes.

A més, el govern demana que els proveïdors de serveis deepfake ofereixin maneres de "refutar rumors".

Alerten del deepfake per trobar feina: intel·ligència artificial per suplantar identitats
La tècnica permet manipular vídeos i fotos, i també la veu (Pixabay)

Però la Xina s'enfronta als mateixos obstacles que han frenat altres esforços per governar deepfakes: els pitjors maltractadors de la tecnologia solen ser els més difícils d'atrapar.

La dificultat rau en el fet que operen de manera anònima, s'adapten ràpidament i comparteixen les seves creacions sintètiques a través de plataformes en línia sense fronteres.

Una reputació que provoca reticències 

El moviment de la Xina també ha posat de manifest una altra raó per la qual pocs països han adoptat regles: molta gent tem que el govern pugui utilitzar les regles per restringir la llibertat d'expressió.

Tanmateix, pel fet d'avançar-se, Pequín podria influir en com altres governs tracten l'aprenentatge automàtic i la intel·ligència artificial que impulsen la tecnologia deepfake.

En parlava en un fòrum d'especialistes en intel·ligència artificial Ravit Dotan, investigador postdoctoral que dirigeix el Laboratori de Responsabilitat de la Intel·ligència Artificial Col·laborativa de la Universitat de Pittsburgh:

"L'escena de la intel·ligència artificial és un lloc interessant per a la política global, perquè els països competeixen entre ells sobre qui marcarà el to. 

"Sabem que les lleis estan arribant, però encara no sabem quines són, així que és tot força imprevisible."

Experts com Dotan també es preocupen pel mal ús dels deepfakes i per l'erosió que això pot crear en la confiança en vídeos de vigilància o càmeres corporals.

Als Estats Units, el Departament de Seguretat Nacional ha identificat riscos com el ciberassetjament, el xantatge, la manipulació d'eleccions i la inestabilitat política.

L'apocalipsi informativa

Alguns experts prediuen que fins al 90 per cent del contingut en línia es podria generar sintèticament d'aquí a pocs anys.

Generació sintètica de continguts d'actualitat (CCMA)

Aquest volum creixent de deepfakes podria conduir a una situació en què "els ciutadans ja no tinguin una realitat compartida".

Això abocaria a la confusió social sobre la fiabilitat de les fonts d'informació, preàmbul d'una "apocalipsi informativa" o "apatia de la realitat", com ho ha definit l'agència europea d'aplicació de la llei Europol en un informe.

 

 

Anar al contingut