Alerten del deepfake per trobar feina: intel·ligència artificial per suplantar identitats
La tècnica permet manipular vídeos i fotos i també la veu (Pixabay)

Alerten del deepfake per trobar feina: intel·ligència artificial per suplantar identitats

L'FBI alerta de l'augment en l'ús del deepfake per aconseguir feines online i accedir a dades sensibles o confidencials

RedaccióActualitzat

Nova alerta de l'FBI sobre possibles fraus vinculats a la intel·ligència artificial a través de la tècnica coneguda com a "deepfake". Una tècnica que permet crear notícies falses, fabricar o manipular fotografies i vídeos, clonar veus i també suplantar identitats per superar processos de selecció de personal online i aconseguir una feina que obri portes a informació confidencial.


Robar dades personals i manipular entrevistes

El frau implica el robatori de dades personals de la persona a qui es vol suplantar (nom, adreça, mail, telèfon, fotografies i credencials), la creació d'un perfil i currículum a mida i el retoc i manipulació d'imatges i vídeos per poder superar una entrevista online.

Els programes d'intel·ligència artificial basats en el deepfake permeten crear un personatge a mida manipulant tota aquesta informació, un individu que en realitat no existeix però que és capaç d'interactuar, per exemple, en una entrevista curta de feina.

Un futur treballador que un cop a dins de l'empresa pot tenir accés a tota mena de dades sensibles (des de dades personals, financeres, comercials o de patents de la companyia, fins a bases de dades de clients, productes o projectes d'investigació).

També permet a treballadors sense permís de residència treballar als Estats Units com si tinguessin els papers en regla, segons l'Agència Federal d'Intel·ligència.


Sectors financers, tecnològics, de seguretat i salut

Les empreses més susceptibles de rebre un atac d'aquest tipus són, segons l'FBI, les de sectors emergents (com les tecnològiques) i amb dades sensibles de les quals es pugui treure molt partit (com les financeres, de salut o de seguretat).

Per evitar caure en el seu parany, l'agència d'intel·ligència nord-americana recomana a les companyies actualitzar els seus estàndards de seguretat, formar millor els entrevistadors, parar molta atenció als detalls en les entrevistes online (com la falta de concordança entre la veu i el moviment dels llavis, per exemple) o fins i tot introduir paranys durant una conversa que sorprenguin l'entrevistat (com fer-li mostrar un diari del dia o respondre una qüestió d'actualitat d'última hora).

També verificar sempre els antecedents i contrastar les dades aportades pel candidat amb fonts oficials fiables, una pràctica que ha permès desemmascarar diversos casos de frau i que les persones a qui s'ha pres la identitat siguin conscients del robatori i suplantació de què han estat víctimes.

L'FBI reconeix que ara per ara aquest tipus de frau és difícil d'evitar si el cometen individus experts amb la tecnologia adequada, però que no és impossible identificar-los si s'hi para atenció i es contrasten les dades. A les víctimes els recomanen denunciar de seguida possibles mails o trucades sospitoses que puguin delatar un robatori d'identitat.

ARXIVAT A:
Estats UnitsTecnologiaIntel·ligència artificial
Anar al contingut