El reto de la IA en el Baix
Javier González, director del CitiLab, ha levantado el telón del eje temático de la edición de este año de los Premios de Reconeixement Cultural, que pivota en torno a los retos de la Inteligencia Artificial (IA) para construir un buen futuro, después de que la pasada edición se centrara en el 50 aniversario del CECBLL.
El hecho de que la IA no piense, que simplemente replique y amplifique nuestros sesgos debería alertarnos para “no delegar las decisiones morales a esos sistemas, porque lo importante es quién decide y con qué responsabilidad”, ha dicho tras aclarar que “no planteo los retos desde el miedo, sino desde la responsabilidad de que debemos de ser conscientes de la transformación que estamos atravesando”. Para ejemplificar ese reto, González ha citado el sesgo de género en la IA en el campo laboral, porque tiende a asignar a hombres los cargos de responsabilidad y a mujeres los trabajos de cuidados.
En ese sentido, ha recordado que los entrenadores de la IA están en Estados Unidos y China, “países con otras culturas, prejuicios y sesgos”. También ha recordado que, según el último informe de la OCDE, el 20 por ciento de las empresas españolas utiliza hasta 5 herramientas de gestión algorítmica para monitorizar la actividad laboral y canalizar órdenes a sus empleados.
El director del CitiLab ha puesto los ejemplos de dos pequeñas sanciones impuestas a un juez y a un abogado por elaborar el primero una sentencia apoyándose en ChatGPT y recibió una multa de 1.000 euros; y el letrado por haberse detectado en un recurso de apelación suyo citas de hasta 48 sentencias totalmente falta, recibiendo una multa de 420 euros. Ante estas situaciones, González se ha preguntado “¿quién es el responsable de que una máquina tome decisiones, si, además, se comparten datos sensibles como los que figuran en sentencias o recursos?”.