"Los sistemas de inteligencia artificial (IA) han amplificado de forma flagrante el racismo y las desigualdades y han perpetuado la vulneración de los derechos humanos", denuncia Amnistía Internacional en un comunicado. Aunque a menudo se tiene la imagen de la tecnología como algo neutro y libre de cualquier prejuicio, no es así. Los sistemas de IA están programados por personas y se nutren del conocimiento que se les pone al alcance, en los dos casos los sesgos son inevitables. El resultado es que se pueden llegar a amplificar discriminaciones como el racismo o el machismo. Aprovechando que la Unión Europea (UE) está trabajando en la primera ley para definir los límites de la IA, la organización ha advertido de los peligros vinculados a la nueva tecnología y ha exigido medidas como el veto de sistemas de reconocimiento facial en lugares públicos o evitar que las grandes multinacionales ganen capacidad para "auto-regular" el sector.
Según el asesor sobre regulación de la inteligencia artificial de Amnistía Internacional, Mher Hakobyan, buena parte de los sistemas basados en nuevas tecnologías que se utilizan hoy día "no se sirven para mejorar el bienestar de la gente, sino que utilizan para ahorrar costes". "Cuando ya existen problemas sistémicos como el racismo y la discriminación, estas tecnologías dañan todavía más las comunidades marginadas", lamenta, según recoge la ACN.
The #EU should limit use of surveillance technology in the #ArtificialIntelligence Act, say 115 organisations, activists and academics.#AI used by #police and in migration control poses a high risk of #HumanRightsviolations
— Amnesty EU (@AmnestyEU) September 21, 2023
Regulate police tech now ✊https://t.co/ELOnEynzeu
Viejos estereotipos, nuevas tecnologías que los implementan
Hakobyan destaca que los legisladores de la UE se centre a formular leyes "que hagan frente a los problemas existentes, como que la tecnología se utilice para tomar decisiones discriminatorias que vulneren derechos humanos básicos". El experto lo ejemplariza con un caso en los Países Bajos. El gobierno neerlandés puso en marcha un programa que pretendía detectar si las solicitudes de ayudas a la infancia eran fraudulentas o no. Según Amnistía, el sistema "penalizó erróneamente miles de familias de clase baja y de origen inmigrante, hundiéndolos en la pobreza y tener que hacer frente a más deudas". De hecho, la organización lamenta que los estados miembros recurran a tecnologías "opacas y hostiles" para "abusar de migrantes" y exige que se prohíba el sesgo "racista" de algunos sistemas de evaluación.
Especial foco a los sistemas de reconocimiento facial
Amnistía pide poner el ficus legislativo, especialmente al prohibir "sin excepciones" los sistemas de reconocimiento facial en espacios públicos, incluyendo zonas fronterizas en torno a centros de detención. Para la ONG, estas tecnologías se han convertido en la herramienta "por excelencia" para llevar a cabo una vigilancia que considera "excesiva" y alerta que pueden derivar en detenciones "incorrectas".