La historia sin fin comienza en el año 2014, cuando Amazon comenzó a desarrollar un sistema de inteligencia artificial para calificar currículums y así identificar a los mejores candidatos de manera automatizada. En teoría, lograría eficiente y reduciría sesgos humanos. Sin embargo, pronto se descubrió que el algoritmo otorgaba puntajes más bajos a los currículums de mujeres.

Esto ocurría porque el sistema había sido entrenado con datos de contrataciones anteriores, en los cuales, como ocurre en muchas industrias, la mayoría de los empleados eran hombres y son los que ocupan puestos jerárquicos y obtienen buenas calificaciones. Así, el sistema "aprendió" que los perfiles masculinos eran preferibles, descartando automáticamente a candidatas altamente calificadas simplemente porque, en el pasado, se habían contratado a más hombres. Finalmente, Amazon abandonó el proyecto, reconociendo que no podían corregir sus prejuicios.

La revelación de las americanas

Una década más tarde, la historia se repite dejándonos, una vez más, sin esperanzas. Del 21 al 23 de octubre de este año se llevó a cabo “TheSeventh AAAI/ACM Conferenceon AI, Ethics, and Society” en California, oportunidad en la que Kyra Wilson y AylinCaliskan de la Universidad de Washington presentaron los resultados de su reciente y alarmante estudio “Gender, Race, and IntersectionalBias in Resume ScreeningviaLanguageModelRetrieval” (“Género, raza y sesgo interseccional en la selección de currículos mediante la recuperación de modelos lingüísticos”). Las investigadoras se centraron en los modelos LLM de código abierto de Salesforce, Contextual AI y Mistral y analizaron 554 currículos y 571 descripciones de puestos extraídos de documentos del mundo real. ¿Qué encontraron? Esos sistemas preferían los currículums con nombres asociados a personas blancas en un 85% de las veces y a nombres femeninos en apenas un 11% de los casos. También se basaron en la interseccionalidad e hicieron más de tres millones de combinaciones de empleo, raza y género. En estos casos, los hombres negros fueron los más perjudicados: casi en el 100% de las pruebas quedaron excluidos de la selección.

Otro estudio conducido por la misma universidad, comprobó que ChatGPT clasifica a los currículums que tienen honores y credenciales vinculados a la discapacidad (por ejemplo, un reconocimiento a sujetos que ayudan a las personas con discapacidad) en una posición inferior a la de los mismos currículos sin esos premios. 

Problemas de metas laborales

Actualmente, el 15% de las empresas españolas utiliza la IA para la selección de personal y el 46% ya la usa para desarrollar alguna de sus tareas. En el año 2019, el estudio “Thefuture of women at work: Transitions in theage of automation” de McKinsey Global Institute  vaticinaba que entre 40 y 160 millones de mujeres en todo el mundo podrían tener que cambiar de ocupación en 2030 a menudo hacia puestos que requieren mayor capacitación y para ello, necesitan capacitación. Si ellas hacen estas transiciones, podrían estar en el camino hacia un trabajo más productivo y mejor remunerado. Si no lo logran, podrían enfrentar una brecha salarial cada vez mayor o quedar aún más rezagadas.

Como podemos ver, la inteligencia artificial tiene un impacto sideral en el ámbito laboral. Por un lado, en la realización de tareas propiamente dichas y, por el otro, en la gestión de la contratación y de recursos humanos. Este último aspecto, incluye sistemas de IA para: la Contratación y Reclutamiento, Evaluación de Desempeño y Promociones, Gestión de Denuncias y Acoso Laboral, Análisis de Clima Laboral y Compromiso del Empleado, la Capacitación y Desarrollo del Talento, entre otras. 

En pos del cumplimiento (aunque utópicos por momentos) de los Objetivos de Desarrollo Sostenible y de reducir las brechas sociales, si no tomamos medidas urgentes, el impacto de la inteligencia artificial tendrá más consecuencias negativas que positivas. Diez años más tarde del famosísimo caso de Amazon, todo sigue igual. Queda planteado el requisito de la supervisión y la responsabilidad de las empresas y los diseñadores de IA.

Si bien, comenzaron a surgir interesantes avances (como el Reglamento de IA o la ley 144 del Estado de Nueva York que obliga a las empresas a auditar sus sistemas de IA para contratación en busca de sesgos antes de implementarlos), necesitamos acciones coordinadas a nivel global para saber con precisión si un sistema de IA para la gestión del empleo es discriminatorio o no.  La inteligencia artificial promete transformar el mundo laboral, pero para que esa transformación sea justa, no basta con confiar en la tecnología sin cuestionarla. Los algoritmos, aunque sofisticados, no son infalibles ni imparciales, porque heredan nuestras limitaciones y prejuicios. 

Mientras tanto, como sociedad, debemos mantener un debate abierto sobre los usos éticos de la IA. Debemos recordar que la automatización de procesos no debe implicar la automatización de injusticias. En última instancia, la tecnología debe servirnos a todos, sin distinción de raza, género o cualquier otra categoría. La pregunta es si estamos dispuestos a construir una IA que verdaderamente sea para todos, o si continuaremos permitiendo que esta herramienta reproduzca las barreras del pasado en nombre de la eficiencia y el progreso. Así, algún día, la historia de discriminación laboral verdaderamente tendrá un “fin” ético.