En los últimos años, la inteligencia artificial (IA) ha ganado un protagonismo sin precedentes en la vida cotidiana, transformando sectores como la educación, el trabajo y el ocio en todo el mundo, también en España.

Sin embargo, no todo son buenas noticias. Herramientas de IA tan populares como ChatGPT, Copilot o los generadores de imágenes de OpenAI y Stability AI han estado en el ojo del huracán por escándalos que van desde la perpetuación de sesgos discriminatorios hasta el uso opaco de datos personales.

Sesgos en la IA: una amenaza real

La Organización de Consumidores y Usuarios (OCU) ha puesto de manifiesto un problema crítico en la inteligencia artificial moderna: los sesgos ocultos en herramientas populares como ChatGPT, GitHub Copilot, Gemini de Google y Perplexity. Según la OCU, estas tecnologías, fundamentales para tareas como la generación de texto, programación y asistencia, presentan patrones de discriminación basados en género y raza, perpetuando estereotipos perjudiciales.

Estos sesgos no son incidentales, sino el resultado de modelos entrenados con datos históricos plagados de desigualdades sociales. Por ejemplo, en respuestas generadas por estas plataformas, se observa una sobre asignación de roles tradicionales: profesiones técnicas asociadas mayoritariamente a hombres y trabajos de cuidado relacionados con mujeres. Asimismo, en el ámbito racial, ciertas poblaciones son representadas de manera negativa o insuficiente, reforzando prejuicios ya existentes.

Microsoft Copilot

La OCU advierte que, a medida que estas herramientas se integran en decisiones laborales, educativas y sociales, el impacto de estos sesgos puede amplificarse, afectando la igualdad de oportunidades.

Ejemplos de sesgo de género en la IA

Uno de los ejemplos más claros de este problema se encuentra en sistemas como GitHub Copilot, que tiende a sugerir nombres masculinos para roles técnicos en el código. De manera similar, ChatGPT y Gemini han sido criticados por generar descripciones que refuerzan estereotipos culturales. Por ejemplo, si se solicita una historia breve sobre un científico, estos sistemas suelen asumir automáticamente un personaje masculino, mientras que las descripciones relacionadas con enfermería o enseñanza recaen en figuras femeninas.

Esta discriminación refleja no solo los datos en los que estas IA han sido entrenadas, sino también una falta de supervisión adecuada durante su desarrollo. A pesar de los avances en los modelos de lenguaje, la equidad en sus respuestas sigue siendo un desafío no resuelto.

EuropaPress 5530361 filed 18 april 2023 berlin the chatgpt logo is displayed on the monitor of

Por otro lado, Meta, responsable de tecnologías como LLaMA, ha sido acusada por la OCU de prácticas poco éticas al utilizar datos personales de usuarios para entrenar sus sistemas. Según la organización, este manejo de información es una violación de los derechos fundamentales de privacidad, lo que agrava el problema de la confianza en estas tecnologías.

La postura de la OCU sobre la inteligencia artificial

La OCU exige una mayor regulación en el desarrollo y uso de la inteligencia artificial. Propone que las empresas implementen auditorías regulares para detectar y corregir sesgos en sus modelos, además de garantizar que el uso de datos personales cumpla con estándares éticos y legales.

Para la organización, la transparencia es clave. Los desarrolladores de IA deben ser claros sobre los datos utilizados para entrenar sus sistemas y adoptar prácticas que promuevan la igualdad. Además, la OCU insta a las instituciones europeas a establecer normativas que obliguen a las empresas tecnológicas a rendir cuentas por el impacto social de sus herramientas.

Asimismo, mientras la inteligencia artificial redefine múltiples industrias, la denuncia de la OCU recuerda que su implementación debe ir acompañada de responsabilidad ética y un enfoque claro en la equidad. Sin estas medidas, la tecnología que promete transformar el futuro puede, en cambio, perpetuar las desigualdades del pasado.