Más allá de Netflix o Tinder, la inteligencia artificial gana terreno en ámbitos de alta sensibilidad social. Ya puede influir en quién recibe una ayuda pública o quién es el trabajador que merece ser contratado. Por eso, los expertos piden más transparencia para detectar sesgos, corregirlos o evitar los "castigos algorítmicos".
El pasado 22 de febrero, la ministra de Trabajo y Economía Social, Yolanda Díaz, compareció en comisión en el Congreso de los Diputados. Los titulares se los llevó el comentario machista de un rival político, pero lo más sugerente tuvo lugar durante los primeros minutos de la sesión. La dirigente gallega propuso a sus señorías un viaje metafórico entre dos ciudades: Fordlandia y Uberlandia, transitando por el camino de la "uberización de la economía": "Algoritmos dirigiendo a personas que trabajan".
Convencida de que "el trayecto modifica el destino", Díaz usó el recorrido para hablar de la futura ley rider que ha redactado su departamento y por la que se tendrá que informar a los representantes de los trabajadores sobre los algoritmos que puedan afectar a las condiciones de trabajo en las empresas. No es una cuestión futurista. Estos cálculos matemáticos ya pueden ayudar a tomar decisiones sobre la contratación, la productividad en la oficina o el reparto de ayudas sociales si hablamos del ámbito público.