El repte de la IA al Baix
Javier González, director del CitiLab, ha aixecat el teló de l’eix temàtic de l’edició d’aquest any dels Premis de Reconeixement Cultural, que pivota entorn dels reptes de la Intel·ligència Artificial (IA) per construir un bon futur, després que la passada edició se centrés en el 50 aniversari del CECBLL.
El fet que la IA no pensi, que simplement repliqui i amplifiqui els nostres biaixos hauria d’alertar-nos per “no delegar les decisions morals a aquests sistemes, perquè l’important és qui decideix i amb quina responsabilitat”, ha dit després d’aclarir que “no plantejo els reptes des de la por, sinó des de la responsabilitat que hem de ser conscients de la transformació que estem travessant”. Per exemplificar aquest repte, González ha citat el biaix de gènere en la IA en l’àmbit laboral, perquè tendeix a assignar als homes els càrrecs de responsabilitat i a les dones els treballs de cures.
En aquest sentit, ha recordat que els entrenadors de la IA són als Estats Units i a la Xina, “països amb altres cultures, prejudicis i biaixos”. També ha recordat que, segons l’últim informe de l’OCDE, el 20 per cent de les empreses espanyoles utilitza fins a 5 eines de gestió algorítmica per monitoritzar l’activitat laboral i canalitzar ordres als seus empleats.
El director del CitiLab ha posat els exemples de dues petites sancions imposades a un jutge i a un advocat per elaborar el primer una sentència recolzant-se en ChatGPT i va rebre una multa de 1.000 euros; i el lletrat per haver-se detectat en un recurs d’apel·lació seu cites de fins a 48 sentències totalment falses, rebent una multa de 420 euros. Davant aquestes situacions, González s’ha preguntat “qui és el responsable que una màquina prengui decisions, si, a més, es comparteixen dades sensibles com les que figuren en sentències o recursos?”.