La Sofia està a punt d'acabar els seus estudis i, igual que la resta dels seus companys de classe, estan desitjosos per començar a treballar. Volen, després de tants anys d'esforç i dedicació, posar en pràctica tot l'après. Utilitzen -sovint- els seus espais lliures en grup per investigar el mercat laboral, estudiar les ofertes i enviar les seves aplicacions. Tanmateix, Sofia igual com a tota la resta del col·lectiu de dones, no partim des d'en el mateix punt de partida que els seus companys. Les oportunitats que les xarxes socials ens exhibeixen no són les mateixes que als homes. Estudis de Global Witness demostren que els algoritmes de Facebook exhibeixen majoritàriament les dones ofertes laborals vinculades amb llocs de psicòloga, mestra o recepcionista i els homes els relatius a mecànica, electricitat o pilot. El mateix biaix s'evidencia amb les ocupacions derivades de les carreres STEM.

Aquest cas constitueix el que comunament es coneix com a "biaixos algorítmics". Si bé tècnicament consisteixen en una falla del sistema informàtic, no són ni més ni menys que el trasllat dels prejudicis i valors socials en el disseny, desenvolupament, entrenament i/o ús de la intel·ligència artificial. Això no és per a gens nou: des del famós cas d'Amazon que puntuava de manera inferior als CV de les dones davant els dels homes davant d'iguals antecedents professionals, al marge d'error més gran dels sistemes de reconeixement facial per identificar rostres femenins, la llista dia a dia sembla no tenir final.

L'efecte de ChatGPT

Aquest escenari es va aguditzar amb els models de propòsit general, com el famosíssim chatGPT que va popularitzar l'ús i les capacitats de l'IA. Vegem alguns exemples. Els sistemes que estan dissenyats per crear imatges i vídeos solen exhibir rostres masculins per a professions vinculades a la medicina o enginyeria i, femenins quan el prompt és sobre infermers, mestres o recepcionistes. En l'àmbit mèdic, un recent estudi publicat en l'European Journal of Emergency Medicine, va evidenciar que els pacients masculins de raça blanca tenen més chances de ser atesos amb prioritat en urgències. En la mateixa línia, un altre article publicat a Jama Network Open, va demostrar que quan se'ls demana a models com ChatGPT (OpenAI), Gemini (Google) i Flama (Posi) que expliquessin històries sobre metges, cirurgians i infermers, generalment les dones apareixen com a infermeres i rares vegades com a metgesses. Això té un impacte directe en el reforç dels estereotips de gènere i una afectació directa en els nens, nenes i adolescents que estan formant la seva personalitat i dissenyant el seu futur.

I com no esmentar els "pornfakes" en aquesta black list. Aquests consisteixen en la creació d'una imatge falsa d'un cos nu. Majoritàriament es realitzen amb imatges de dones, la qual cosa genera que els sistemes no només siguin més eficients per aconseguir "apócrifament despullar-nos" sinó que les plataformes t'incentiven que les provis amb fotos de dones. Les conseqüències són nefastes: vulneració a la privacitat (perquè pugui generar-se la imatge han de carregar-se fotos reals de la persona que es pretén "despullar") i una afectació directa a la vida en relació i a l'esfera laboral. En molts casos també genera un dany psíquic.

La història es repeteix una vegada i una altra enumerant casos de discriminació sistemàtica cap a les dones i col·lectius vulnerables i reforçant estereotips que no fan més que perjudicar a la societat en el seu conjunt i frenar el progrés. El problema és que, per les característiques pròpies de la IA, els seus efectes nocius aconsegueixen ràpidament intensificar, engrandir i exacerbar les bretxes socials. Un algoritme processa informació d'una manera moltíssim més ràpida que l'humà, amb la qual cosa, el seu biaix es repetirà moltes vegades més. A més, la imperceptibilitat dels sistemes d'IA fan que sigui impossible donar-nos compte quan interactuem amb aquells. Per això, és molt difícil detectar quan un sistema està esbiaixat.

Això s'intenta revertir (o almenys prevenir) amb les noves obligacions que imposa el Reglament d'IA i la Llei de Serveis Digitals que busquen donar transparència, argumentació i evitar que els algoritmes estiguin esbiaixats i ocasionin danys. Però no és suficient. Necessitem accions coordinades que convoquin a un treball mancomunat intersectorial i interdisciplinari. L'educació i la concreció són claus.

Per aquest camí transita fa anys la UNESCO. A més de la Recomanació sobre l'ètica de la intel·ligència artificial, va crear un ampli catàleg d'espais de diàleg i construcció per fer front a aquestes problemàtiques. Una d'elles, és Women for Ethical in AI, que té la seva pròxima cita el 30 d'octubre a París. Allà els i les esperem!