L'exèrcit d'Israel hauria desenvolupat un programa basat en intel·ligència artificial per seleccionar les víctimes dels seus bombardejos (Reuters/Ramadan Abed)

Així fa servir la intel·ligència artificial Israel per escollir objectius per matar a Gaza

Una investigació de dues revistes israelianes afirma que l'exèrcit va utilitzar un programari anomenat Lavender per assenyalar fins a 37.000 palestins com a objectius
Redacció Actualitzat
TEMA:
Guerra a Gaza

L'exèrcit d'Israel estaria fent servir sistemes d'intel·ligència artificial per assenyalar els palestins de Gaza que creu que són activistes de Hamas i també per decidir assassinar-los.

Ho han denunciat els últims dies diverses investigacions periodístiques, i també treballadors de Google, empresa que estaria proporcionant a Israel tecnologia per poder-ho fer.

Dues revistes israelianes, Local Call i +972, han publicat una informació que afirma els primers mesos de la guerra es va fer servir un programari anomenat Lavender per assenyalar fins a 37.000 palestins com a objectius.

Segons Meron Rapoport, editor de les revistes, aquests assenyalaments van servir per matar milers de persones, malgrat que el marge d'error de Lavender seria força gran:

"Sabien que la precisió és tan sols del 90%, la qual cosa significa que el 10% dels atacats no tenen cap contacte ni cap relació amb Hamas ni cap activitat militar."


Fins a 100 morts per objectiu

La investigació, basada en les declaracions de sis oficials de l'exèrcit, afirma que en la guerra de Gaza Israel ha augmentat molt el percentatge de víctimes col·laterals que el mateix exèrcit considera acceptable.

Abans, quan l'objectiu era un milicià de baix rang, no acceptaven cap més víctima, mentre que per a oficials de Hamas d'alt rang s'arribava a cinc o sis morts més. Ara, però, aquestes xifres s'han disparat fins a centenars:

"Les nostres fonts ens van dir que les víctimes col·laterals permeses pels comandaments durant les primeres setmanes de guerra van ser de 10 a 20 per als milicians de menys rang i per als de categories altes, comandants de batallons de Hamas o de la Jihad Islàmica, eren, fins i tot, superiors a 100."

Als objectius els assassinaven a casa mentre dormien amb tota la família i, sovint, també morien els veïns, perquè les bombes utilitzades per eliminar els milicians de menys categoria són menys precises.

Israel ha negat que les forces armades facin servir una IA per identificar objectius terroristes (Reuters/Amir Cohen)

Les víctimes de les "bombes tontes"

Són les anomenades "bombes tontes", molt més barates que els míssils guiats, que es reserven per assassinar alts comandaments. L'ús de les bombes tontes explicaria per què entre les víctimes hi ha tantes dones i nens. 

Segons les fonts entrevistades, gairebé no hi va haver supervisió humana a l'hora de verificar els objectius triats per Lavender: només dedicaven uns quants segons a verificar que no fossin dones.

El motiu és que a Hamas o la Jihad Islàmica Palestina només hi ha milicians masculins i no dones milicianes ni comandaments d'aquest sexe.

No queden clars els paràmetres amb els quals treballa Lavender per escollir els objectius: la investigació cita només si és home o dona o si canvia sovint de telèfon, un fet que pot ser habitual en un context de guerra.

En tot cas, és un model probabilístic que treballa en base a les dades recopilades per Israel dels habitants de Gaza i atorga una puntuació de l'1 al 100 a cada persona per decidir si és milicià de Hamas o la Jihad o no.

Altres programes contra els palestins de Gaza

Segons la investigació, l'exèrcit d'Israel també utilitza altres programes d'IA a Gaza: un d'anomenat Where is Daddy (on és el papa, en anglès), que fa un seguiment de la persona objectiu i ordena el bombardeig quan és a casa.

També un altre d'anomenat The Gospel (l'evangeli, en anglès), que està dedicat a rastrejar els edificis i les infraestructures de Gaza i determinar quines són controlades per Hamas.

Les conclusions d'aquesta investigació han estat negades per l'exèrcit israelià, que ha assegurat que els sistemes d'intel·ligència artificial només es fan servir com a eina auxiliar i mai per prendre decisions.

Israel també hauria fet servir un programari anomenat The Gospel per rastrejar els edificis i les infraestructures de Gaza i determinar quines són controlades per Hamas (Reuters/Amir Cohen)


Les bases de dades de Google a Israel

Els programes que fa servir aquest exèrcit habitualment són fabricats per empreses d'Israel, que després els venen en fires d'armament aprofitant l'ús que se n'ha fet amb els palestins com a prova que funcionen bé.

Però també necessiten potència d'emmagatzemament de dades i de computació, i treballadors de Google i d'Amazon han denunciat el contracte que aquestes empreses van signar el 2021 amb Israel, que era per proporcionar centres de dades al govern d'Israel per valor de 1.200 milions de dòlars. Els empleats creuen que els està fent servir l'exèrcit per donar suport als programes d'IA en les operacions a Gaza.

En aquest sentit, informacions periodístiques han afirmat fa pocs dies que Google estava negociant directament amb l'exèrcit israelià per fer servir les bases de dades amb criteris purament militars.

Com a resposta, uns quants treballadors d'aquesta empresa han protestat aquest dimarts ocupant oficines de l'empresa als Estats Units. Altres treballadors s'han concentrat a l'exterior de les oficines de Google a Nova York, Sunnyvale i Seattle, i la policia ha detingut les nou persones que havien ocupat els locals.

Les protestes no són cosa d'ara: els treballadors es van queixar del contracte amb Israel des de l'inici i, des que hi ha la guerra a Gaza, han intensificat les protestes.

A principis de març un empleat va interrompre a Nova York un discurs del màxim dirigent de Google a Israel i l'empresa el va acabar acomiadant.

 

 

ARXIVAT A:
Israel Intel·ligència artificial Guerra a Gaza
VÍDEOS RELACIONATS
El més llegit
AVUI ÉS NOTÍCIA
Anar al contingut