En els últims anys, la intel·ligència artificial (IA) ha guanyat un protagonisme sense precedents en la vida quotidiana, transformant sectors com l'educació, el treball i el lleure en tot el món, també a Espanya.
Tanmateix, no tot són bones notícies. Eines d'IA tan populars com ChatGPT, Copilot o els generadors d'imatges d'OpenAI i Stability AI han estat a l'ull de l'huracà per escàndols que van des de la perpetuació de biaixos discriminatoris fins a l'ús opac de dades personals.
Biaixos en la IA: una amenaça real
L'Organització de Consumidors i Usuaris (OCU) ha posat de manifest un problema crític en la intel·ligència artificial moderna: els biaixos ocults en eines populars com ChatGPT, GitHub Copilot, Gemini de Google i Perplexity. Segons l'OCU, aquestes tecnologies, fonamentals per a tasques com la generació de text, programació i assistència, presenten patrons de discriminació basats en gènere i raça, perpetuant estereotips perjudicials.
Aquests biaixos no són incidentals, sinó el resultat de models entrenats amb dades històriques omplertes de desigualtats socials. Per exemple, en respostes generades per aquestes plataformes, se n'observa una sobre assignació de rols tradicionals: professions tècniques associades majoritàriament a homes i treballs de cura relacionats amb dones. Així mateix, en l'àmbit racial, certes poblacions són representades de manera negativa o insuficient, reforçant prejudicis ja existents.
L'OCU adverteix que, a mesura que aquestes eines s'integren a decisions laborals, educatives i socials, l'impacte d'aquests biaixos pot amplificar-se, afectant la igualtat d'oportunitats.
Exemples de biaix de gènere en la IA
Un dels exemples més clars d'aquest problema es troba en sistemes com GitHub Copilot, que tendeix a suggerir noms masculins per a rols tècnics en el codi. De manera similar, ChatGPT i Gemini han estat criticats per generar descripcions que reforcen estereotips culturals. Per exemple, si se sol·licita una història breu sobre un científic, aquests sistemes solen assumir automàticament un personatge masculí, mentre que les descripcions relacionades amb infermeria o ensenyament recauen en figures femenines.
Aquesta discriminació reflexa no només les dades en les quals aquestes IA han estat entrenades, sinó també una falta de supervisió adequada durant el seu desenvolupament. Malgrat els avenços en els models de llenguatge, l'equitat en les seves respostes continua sent un desafiament no resolt.
D'altra banda, Meta, responsable de tecnologies com LLaMA, ha estat acusada per la OCU de pràctiques poc ètiques en utilitzar dades personals d'usuaris per entrenar els seus sistemes. Segons l'organització, aquest maneig d'informació és una violació dels drets fonamentals de privacitat, la qual cosa agreuja el problema de la confiança en aquestes tecnologies.
La postura de l'OCU sobre la intel·ligència artificial
L'OCU exigeix una regulació més gran en el desenvolupament i ús de la intel·ligència artificial. Proposa que les empreses implementin auditories regulars per detectar i corregir biaixos en els seus models, a més de garantir que l'ús de dades personals compleixi estàndards ètics i legals.
Per a l'organització, la transparència és clau. Els desenvolupadors d'IA han de ser clars sobre les dades utilitzades per entrenar els seus sistemes i adoptar pràctiques que promoguin la igualtat. A més, l'OCU insta les institucions europees a establir normatives que obliguin les empreses tecnològiques a retre comptes per l'impacte social de les seves eines.
Així mateix, mentre la intel·ligència artificial redefineix múltiples indústries, la denúncia de l'OCU recorda que la seva implementació ha d'anar acompanyada de responsabilitat ètica i un enfocament clar en l'equitat. Sense aquestes mesures, la tecnologia que promet transformar el futur pot, en canvi, perpetuar les desigualtats del passat.