La història sense fi comença l'any 2014, quan Amazon va començar a desenvolupar un sistema d'intel·ligència artificial per qualificar currículums i així identificar els millors candidats de manera automatitzada. En teoria, aconseguiria eficient i reduiria biaixos humans. Tanmateix, aviat es va descobrir que l'algoritme atorgava puntuacions més baixes als currículums de dones.

Això passava perquè el sistema havia estat entrenat amb dades de contractacions anteriors, en les quals, com ocorre en moltes indústries, la majoria dels empleats eren homes i són els que ocupen càrrecs jeràrquics i obtenen bones qualificacions. Així, el sistema "va aprendre" que els perfils masculins eren preferibles, descartant automàticament candidates altament qualificades simplement perquè, en el passat, s'havien contractat més homes. Finalment, Amazon va abandonar el projecte, reconeixent que no podien corregir els seus prejudicis.

La revelació de les americanes

Una dècada més tard, la història es repeteix deixant-nos, una vegada més, sense esperances. Del 21 al 23 d'octubre d'aquest any es va dur a terme "TheSeventh AAAI/ACM Conferenceon AI, Ethics, and Society" a Califòrnia, oportunitat en la qual Kyra Wilson i AylinCaliskan de la Universitat de Washington van presentar els resultats del seu recent i alarmant estudi "Gender, Race, and IntersectionalBias in Resume ScreeningviaLanguageModelRetrieval" ("Gènere, raça i biaix interseccional en la selecció de currículums mitjançant la recuperació de models lingüístics"). Les investigadores es van centrar en els models LLM de codi font obert de Salesforce, Contextual AI i Mestral i van analitzar 554 currículums i 571 descripcions de llocs extrets de documents del món real. Què van trobar? Aquests sistemes preferien els currículums amb noms associats a persones blanques en un 85% de les vegades i a noms femenins en amb prou feines un 11% dels casos. També es van basar en la interseccionalitat i van fer més de tres milions de combinacions d'ocupació, raça i gènere. En aquests casos, els homes negres van ser els més perjudicats: gairebé en el 100% de les proves van quedar exclosos de la selecció.

Un altre estudi conduït per la mateixa universitat, va comprovar que ChatGPT classifica als currículums que tenen honors i credencials vinculats a la discapacitat (per exemple, un reconeixement a subjectes que ajuden a les persones amb discapacitat) en una posició inferior a la dels mateixos currículums sense aquests premis.

Problemes de fites laborals

Actualment, el 15% de les empreses espanyoles utilitza la IA per a la selecció de personal i el 46% ja la utilitza per desenvolupar alguna de les seves tasques. L'any 2019, l'estudi "Thefuture of women at work: Transitions in theage of automation" de McKinsey Global Institute vaticinava que entre 40 i 160 milions de dones a tot el món podrien haver de canviar d'ocupació el 2030 sovint cap a llocs que requereixen més capacitació i per a això, necessiten capacitació. Si elles fan aquestes transicions, podrien ser al camí cap a un treball més productiu i més ben remunerat. Si no ho aconsegueixen, podrien enfrontar una bretxa salarial cada vegada major o quedar encara més retardades.

Com podem veure, la intel·ligència artificial té un impacte sideral en l'àmbit laboral. D'una banda, en la realització de tasques pròpiament dites i, per l'altre, en la gestió de la contractació i de recursos humans. Aquest últim aspecte, inclou sistemes d'IA per a: la Contractació i Reclutament, Avaluació d'Acompliment i Promocions, Gestió de Denúncies i Assetjament Laboral, Anàlisi de Clima Laboral i Compromís de l'Empleat, la Capacitació i Desenvolupament del Talent, entre d'altres.

Darrere el compliment (encara que utòpics per moments) dels Objectius de Desenvolupament Sostenible i de reduir les bretxes socials, si no prenem mesures urgents, l'impacte de la intel·ligència artificial tindrà més conseqüències negatives que positives. Deu anys més tard del famosíssim cas d'Amazon, tot continua igual. Queda plantejat el requisit de la supervisió i la responsabilitat de les empreses i els dissenyadors d'IA.

Si bé, van començar a sorgir interessants avenços (com el Reglament d'IA o la llei 144 de l'Estat de Nova York que obliga a les empreses a auditar els seus sistemes d'IA per a contractació a la recerca de biaixos abans d'implementar-los), necessitem accions coordinades a nivell global per saber amb precisió si un sistema d'IA per a la gestió de l'ocupació és discriminatori o no. La intel·ligència artificial promet transformar el món laboral, però perquè aquesta transformació sigui justa, no n'hi ha prou amb confiar en la tecnologia sense qüestionar-la. Els algoritmes, encara que sofisticats, no són infal·libles ni imparcials, perquè hereten les nostres limitacions i prejudicis.

Mentrestant, com a societat, hem de mantenir un debat obert sobre els usos ètics de la IA. Hem de recordar que l'automatització de processos no ha d'implicar l'automatització d'injustícies. En última instància, la tecnologia ens ha de servir a tots, sense distinció de raça, gènere o qualsevol altra categoria. La pregunta és si estem disposats a construir una IA que veritablement sigui per a tothom, o si continuarem permetent que aquesta eina reprodueixi les barreres del passat en nom de l'eficiència i el progrés. Així, algun dia, la història de discriminació laboral veritablement tindrà un "final" ètic.