Sofía está próxima a terminar sus estudios y, al igual que todos sus compañeros de clase, están deseosos por comenzar a trabajar. Quieren, luego de tantos años de esfuerzo y dedicación, poner en práctica todo lo aprendido. Utilizan -a menudo- sus espacios libres en grupo para investigar el mercado laboral, estudiar las ofertas y enviar sus aplicaciones. Sin embargo, Sofía al igual que a todo el resto del colectivo de mujeres, no partimos desde en el mismo punto de partida que sus compañeros. Las oportunidades que las redes sociales nos exhiben no son las mismas que a los hombres. Estudios de Global Witness demuestran que los algoritmos de Facebook exhiben mayoritariamente a las mujeres ofertas laborales vinculadas con puestos de psicóloga, maestra o recepcionista y a los hombres los relativos a mecánica, electricidad o piloto. El mismo sesgo se evidencia con las ocupaciones derivadas de las carreras STEM.
Ese caso constituye lo que comúnmente se conoce como “sesgos algorítmicos”. Si bien técnicamente consisten en una falla del sistema informático, no son ni más ni menos que el traslado de los prejuicios y valores sociales en el diseño, desarrollo, entrenamiento y/o uso de la inteligencia artificial. Esto no es para nada nuevo: desde el famoso caso de Amazon que puntuaba de manera inferior a los CV de las mujeres frente a los de los hombres ante iguales antecedentes profesionales, al mayor margen de error de los sistemas de reconocimiento facial para identificar rostros femeninos, la lista día a día parece no tener fin.
El efecto de ChatGPT
Este escenario se agudizó con los modelos de propósito general, como el famosísimo chatGPT que popularizó el uso y las capacidades de la IA. Veamos algunos ejemplos. Los sistemas que están diseñados para crear imágenes y videos suelen exhibir rostros masculinos para profesiones vinculadas a la medicina o ingeniería y, femeninos cuando el prompt es sobre enfermeros, maestros o recepcionistas. En el ámbito médico, un reciente estudio publicado en el European Journal of Emergency Medicine, evidenció que los pacientes masculinos de raza blanca tienen más chances de ser atendidos con prioridad en urgencias. En la misma línea, otro artículo publicado en Jama Network Open, demostró que cuando se les pide a modelos como ChatGPT (OpenAI), Gemini (Google) y Llama (Meta) que contaran historias sobre médicos, cirujanos y enfermeros, generalmente las mujeres aparecen como enfermeras y rara vez como médicas. Esto tiene un impacto directo en el refuerzo de los estereotipos de género y una afectación directa en los niños, niñas y adolescentes que están formando su personalidad y diseñando su futuro.
Y como no mencionar los “pornfakes” en esta black list. Estos consisten en la creación de una imagen falsa de un cuerpo desnudo. En su mayoría se realizan con imágenes de mujeres, lo cual genera que los sistemas no solo sean más eficientes para lograr “apócrifamente desnudarnos” sino que las plataformas te incentivan a que las pruebes con fotos de mujeres. Las consecuencias son nefastas: vulneración a la privacidad (para que pueda generarse la imagen tienen que cargarse fotos reales de la persona que se pretende “desnudar”) y una afectación directa a la vida en relación y a la esfera laboral. En muchos casos también genera un daño psíquico.
La historia se repite una y otra vez enumerando casos de discriminación sistemática hacia las mujeres y colectivos vulnerables y reforzando estereotipos que no hacen más que perjudicar a la sociedad en su conjunto y frenar el progreso. El problema es que, por las características propias de la IA, sus efectos dañinos logran rápidamente intensificar, agrandar y exacerbar las brechas sociales. Un algoritmo procesa información de una manera muchísimo más rápida que el humano, con lo cual, su sesgo se repetirá muchas veces más. Además, la imperceptibilidad de los sistemas de IA hacen que sea imposible darnos cuenta cuando interactuamos con aquellos. Por eso, es muy difícil detectar cuando un sistema está sesgado.
Esto se intenta revertir (o al menos prevenir) con las nuevas obligaciones que impone el Reglamento de IA y la Ley de Servicios Digitales que buscan dar transparencia, explicabilidad y evitar que los algoritmos estén sesgados y ocasionen daños. Pero no es suficiente. Necesitamos acciones coordinadas que convoquen a un trabajo mancomunado intersectorial e interdisciplinario. La educación y la concientización son claves.
Por ese camino transita hace años la UNESCO. Además de la Recomendación sobre la ética de la inteligencia artificial, creó un amplio catálogo de espacios de diálogo y construcción para hacer frente a estas problemáticas. Una de ellas, es Women for Ethical in AI, que tiene su próxima cita el 30 de octubre en París. ¡Allí los y las esperamos!