Intel·ligència artificial

Mil científics demanen aturar eines com ChatGPT: "Poden canviar la història de la Terra"

En una carta oberta afirmen que "la cursa sense control" per la intel·ligència artificial és "una caixa negra" que està creant "capacitats emergents impredictibles"

Josep Maria Camps ColletActualitzat

Més d'un miler d'investigadors i empresaris de primera línia mundial relacionats amb la intel·ligència artificial, la IA, han signat una carta demanant una moratòria en aquesta tecnologia.

Entre els signants de la carta, publicada fa una setmana, hi ha personatges com el propietari de Twitter,  Elon Musk; el cofundador d'Apple Steve Wozniak; l'historiador Yuval Noah Harari, o Yoshua Bengio, considerat un dels pares de l'actual IA.

En un to gairebé apocalíptic, adverteixen que la implantació accelerada de sistemes molt potents d'IA, com ChatGPT o el del buscador Bing de Microsoft, són un perill potencial molt gran.


"Un canvi profund en la història de la vida"

En concret, demanen una moratòria d'almenys 6 mesos en el desenvolupament i entrenament de "sistemes d'IA més potents que GPT-4", el més potent posat en marxa fins ara.

El motiu és que creuen que anar més enllà "pot suposar riscos profunds per a la societat i per a la humanitat".

"La IA avançada podria representar un canvi profund en la història de la vida a la Terra i s'hauria de planificar i gestionar amb una cura i uns recursos proporcionats."

Segons asseguren, són sistemes de "caixa negra", en els quals no se sap què hi passa a dins, i que, de fet, són "impredictibles" i amb "capacitats emergents" desconegudes.


"Perdre el control de la civilització"

Per això demanen la moratòria, perquè creuen que s'ha posat en marxa "una cursa sense control" i que cal frenar-la per analitzar i planificar els riscos que comporta.

"Hem de deixar que les màquines inundin els nostres canals d'informació amb propaganda i mentides? Hem de desenvolupar ments no humanes que poden superar-nos en nombre, ser més intel·ligents, convertir-nos en obsolets i substituir-nos? Ens hem d'arriscar a perdre el control de la nostra civilització?"

Aquesta crida la fan a les empreses que estan desenvolupant aquests sistemes d'IA, i els reclamen que la moratòria sigui "pública i verificable" fins que s'hagin desenvolupat els protocols adequats.

"Els sistemes d'IA potents només s'han de desenvolupar quan estiguem segurs que els seus efectes seran positius i que els seus riscos seran manejables."


Demanen als governs que s'hi impliquin

Proposen que els protocols siguin "rigorosament auditats i supervisats per experts externs independents" i controlats per "autoritats reguladores noves", i demanen que, si les empreses no els fan cas, els governs les aturin.

"Aquestes decisions no s'han de delegar a líders tecnològics no escollits."

Una altra de les coses que demanen és que els textos i productes que generin les IA tinguin "sistemes de procedència i marca d'aigua" per poder distingir els creats per humans dels "sintètics".

Musk és fundador d'OpenAI, la creadora de ChatGPT

Curiosament, el personatge més conegut que ha signat la carta, Elon Musk, va ser un dels fundadors d'OpenAI, l'empresa que al novembre va posar en marxa el ChatGPT i fa poc la versió millorada, el ChatGPT-4.

És la principal responsable, per tant, de la cursa desenfrenada en què han entrat les grans empreses del sector des de llavors i que està suposant una revolució tecnològica que té moltes incògnites.

Sobre els perills de la IA, Musk ha recordat aquest dijous a Twitter un acudit sobre uns científics agnòstics que construeixen una superintel·ligència artificial per esbrinar si Déu existeix i que, quan la tenen construïda, li pregunten i la resposta és: "Ara sí, desgraciats!"

La carta, titulada "Posem en pausa els experiments d'IA gegants", l'ha publicada el Future of Life Institute, entitat sense ànim de lucre amb seu a Cambridge, als Estats Units, i dedicada a investigar i alertar dels riscos que amenacen la humanitat.


La intel·ligència artificial i la veritat

Entre els signants hi ha alguns científics catalans, com Carles Sierra, director de l'Institut de Recerca en Intel·ligència Artificial del CSIC, que assegura que no hi ha cap manera de saber si el que diuen aquests sistemes és veritat.

"Correm el perill que molta gent entengui que allò que aquest sistema està generant és cert, i això no ho podem garantir, ni nosaltres ni els enginyers que ho estan desenvolupant, i tot plegat pot tenir conseqüències que no coneixem."

Segons Sierra, són sistemes molt capaços de crear frases amb una sintaxi perfecta, però que, en canvi, sovint se'ls escapen els significats de les paraules i també les connotacions amb què les usem.

"Un exemple típic: 'No vaig poder posar el trofeu al calaix perquè era massa gros.' Si li preguntes "què és el que era massa gros?", et respon "el calaix", i, evidentment, és erroni."

"Aquest tipus d'errors, que impliquen que no hi ha un coneixement profund de la semàntica i de la pragmàtica del llenguatge, els comet constantment."

 

 

ARXIVAT A:
TecnologiaIntel·ligència artificial
Anar al contingut