La tècnica del deepfake permet manipular vídeos i fotos, i també la veu (Pixabay)
La tècnica del deepfake permet manipular vídeos i fotos, i també la veu (iStock)

Deepfake: com podrem detectar l'hipertrucatge i evitar que ens enganyi la IA

Segons els experts, d'aquí poc només la intel·ligència artificial serà capaç de detectar els vídeos o àudios falsos generats amb intel·ligència artificial

Josep Maria Camps ColletActualitzat

A l'estiu, aprofitant els Mundials de futbol, l'empresa de telefonia Orange va emetre un anunci a França que, aparentment, lloava la qualitat del joc de la selecció masculina francesa.

Mostrava una desena de gols espectaculars de les estrelles masculines d'aquesta selecció, però a mig anunci s'explicava que no havien estat els jugadors qui havia fet els gols, sinó les jugadores de la selecció femenina.

I després es mostrava com s'havien manipulat les imatges per, mantenint els mateixos moviments de les jugades, substituir les identitats de les jugadores per les dels jugadors.

Podeu veure l'anunci sencer en aquest vídeo de YouTube:


A banda de fer publicitat de la marca, la intenció era evidenciar la qualitat del joc de la selecció femenina de futbol, en una aplicació benigna del que s'anomena hipertrucatge o deepfake en anglès.


Pornografia, engany i desinformació

Malauradament, els usos més habituals d'aquestes tècniques de manipulació no són gens benignes: el gruix són vídeos pornogràfics amb identitats canviades per aprofitar la fama d'alguna persona o per perjudicar-la, i en general volen enganyar i desinformar.

De moment, ja hi ha hagut uns quants casos en què els hipertrucatges s'han fet servir com a armes de guerra, com un vídeo fals de Vladímir Putin emès al juny a Rússia que anunciava un atac d'Ucraïna.

Els trucatges fotogràfics es remunten als inicis de la història de la fotografia, però els trucatges en vídeo i en àudio són molt més recents, tot i que ja fa anys que existeixen.

Un exemple és un vídeo fals de l'expresident dels EUA Barack Obama de fa sis anys, fet per acadèmics de Washington amb un sistema d'intel·ligència artificial (IA).

El van fer precisament per alertar del perill d'aquests hipertrucatges, que poden passar per imatges autèntiques, com es pot veure en aquest vídeo de la BBC:

"Investigadors de la Universitat de Washington van crear aquest Obama sintètic amb un sistema d'IA per generar la forma de la boca, i ara el poden sincronitzar amb la veu que es vulgui."


Ens hi haurem d'acostumar?

En aquests sis anys la tecnologia per crear i manipular vídeos falsos ha avançat moltíssim, de manera que ara els resultats tenen molta més qualitat i hi ha centenars de programaris a l'abast de tothom per crear-ne amb molta facilitat.

Segons el director de l'Agència de Ciberseguretat de Catalunya, Tomàs Roy, això pot semblar molt preocupant, però afirma que ens hi acabarem acostumant, com ja ens hem acostumat abans a altres prodigis:

"Crec que es normalitzaran i que al final no serà tan important que n'hi hagi, sinó que l'important serà que hi hagi la capacitat de detectar-ho i d'evitar que es propaguin quan la finalitat sigui fraudulenta."


"Marques d'aigua" per identificar els hipertrucatges

Segons Roy, una de les maneres de fer aquesta detecció serà que en origen les imatges es marquin com a generades amb intel·ligència artificial, i empreses com OpenAI, creadora dels programes ChatGPT, Dall·e i Sora, ja s'han compromès a fer-ho.

La intenció és utilitzar "marques d'aigua", és a dir, identificadors digitals visibles o invisibles que certifiquen que són hipertrucatges.

El problema és que aquestes marques d'aigua no són difícils d'eliminar, de manera que no és una solució precisament perfecta i cal buscar altres maneres de detectar els hipertrucatges.

Detecció amb sistemes d'intel·ligència artificial

Tomàs Roy afirma que això s'haurà de fer amb l'ajuda de sistemes d'IA, perquè els trucatges no trigaran a ser de tanta qualitat que serà impossible de diferenciar les imatges trucades de les autèntiques.

També que aquesta detecció haurà de ser responsabilitat de les xarxes socials i els altres proveïdors a través dels quals es difonen les imatges al públic en general:

"El que hem de promoure és que els generadors de contingut et puguin identificar si la imatge té filtres o no té filtres, si s'ha generat amb una intel·ligència artificial o si és una imatge o una veu autèntica."


El problema dels falsos positius

Però com més qualitat tinguin els hipertrucatges, més difícil serà detectar-los. En aquest sentit, el catedràtic de la UOC David Megías Jiménez alerta que aquí apareix un nou fenomen: els falsos positius.

Megías, que a la UOC dirigeix l'Internet Interdisciplinary Institute, l'IN3, afirma que els vídeos autèntics etiquetats com a falsos podrien convertir-se en un greu problema de confiança en el sistema.

El motiu és que, per exemple, un índex d'1 error per cada 1.000 deteccions podria comportar grans quantitats de falsos positius, perquè hi ha milions i milions de vídeos circulant:

"Podem tenir desenes de milers de continguts legítims etiquetats com a falsos, fins i tot podria arribar a haver-hi més contingut legítim etiquetat com a fals que contingut fals etiquetat com a fals."

"Marques d'aigua" per identificar els vídeos reals

Megías creu que la solució implicarà tenir un còctel de mètodes complementaris que junts generin la confiança necessària en l'autenticitat dels vídeos, un dels quals són les marques d'aigua.

Però Megías no proposa marcar els continguts manipulats, sinó els no manipulats, per remarcar que per crear-los no s'han fet servir hipertrucatges i que tot el que hi apareix és real i autèntic.

Segons Megías, la combinació de les marques d'aigua, les deteccions amb IA i les tècniques d'anàlisi forense dels arxius han de permetre identificar els hipertrucatges malintencionats:

"No ens hem de quedar que hi ha una tecnologia màgica que ho resol tot, sinó que hi ha un conjunt de tecnologies que, entre totes elles, poden ajudar."


Sistemes combinats per detectar suplantacions d'identitat

Tomàs Roy coincideix en això amb Megías i explica que institucions privades i públiques, com els bancs i els governs, ja tenen sistemes combinats d'aquest tipus per controlar l'accés als seus sistemes.

En aquest sentit, ja fa anys que els ciutadans poden generar identitats digitals de manera no presencial a través d'internet amb dades biomètriques, com empremtes, fotografies de la cara i la veu, per exemple.

Aquests experts expliquen que això s'ha pogut fer gràcies a la implantació de sistemes de detecció de dades falses o manipulades per impedir suplantacions d'identitat o altres tipus de frau.

Malgrat això, ja hi ha registres de fraus importants comesos amb hipertrucatges, com el cas dels 23 milions d'euros que van estafar aquest gener a una multinacional de Hong Kong amb una videoconferència falsa.

Qui ha de vetllar per l'autenticitat de les imatges?

Tant Megías com Roy, però, alerten que sempre hi haurà una cursa tecnològica dels creadors d'hipertrucatges per evitar les deteccions, perfeccionant les tècniques per passar els controls.

En aquest sentit, tots dos també aposten per exigir a les xarxes socials i als intermediaris en general que es facin responsables de l'etiquetatge dels hipertrucatges per generar confiança en el públic.

De tota manera Megías creu que, a més, cal que hi hagi eines disponibles perquè els ciutadans puguin fer les verificacions pel seu compte, per evitar abusos per part de les xarxes:

"És important que no hi hagi un lloc centralitzat que decideixi, perquè això obre la porta a la censura i al control de la informació, que són coses que a les societats democràtiques no ens convenen."


El desconeixement dels ciutadans, un problema a resoldre

Per la seva banda i com a responsable de l'Agència de Ciberseguretat, a Tomàs Roy li preocupa que set de cada deu ciutadans no coneguin els riscos que comporten els hipertrucatges.

Per això, des de l'agència es fan campanyes de divulgació ciutadana per augmentar el coneixement sobre aquests riscos, com per exemple aquest test senzill que vol respondre a la pregunta "Saps detectar un deepfake?"

També en aquest enllaç s'han creat materials per a les escoles i administracions com l'Ajuntament d'Olesa s'han fet ressò de les campanyes a les xarxes:

 

ARXIVAT A:
Xarxes socials Intel·ligència artificial
Anar al contingut