El Consejo de Europa (no confundir con el Consejo Europeo) es una organización internacional fundada en 1949 y compuesta por 46 Estados miembros – principalmente europeos-, siendo Canadá, la Santa Sede, Israel, Japón, México y Estados Unidos países observadores. Como tal, es independiente de la Unión Europea. Su objetivo principal es promover la democracia, los derechos humanos y el Estado de derecho en el continente europeo. Con sede en Estrasburgo, Francia, esta organización ha desempeñado un papel fundamental en el desarrollo de normas internacionales, como el Convenio Europeo de Derechos Humanos. En el ámbito digital, el Consejo de Europa trabaja con intensidad para garantizar que las tecnologías emergentes, incluida la inteligencia artificial (IA), respeten estos valores fundamentales.
En este contexto, el Consejo ha desarrollado la metodología HUDERIA, un marco técnico-normativo diseñado para evaluar y mitigar los riesgos relacionados con los derechos humanos, la democracia y el Estado de derecho en el desarrollo y uso de sistemas de IA. HUDERIA (acrónimo de Human Rights, Democracy, and Rule of Law Impact Assessment for AI Systems) es una herramienta metodológica diseñada para identificar, evaluar y mitigar los posibles riesgos que los sistemas de IA puedan representar para los derechos humanos, la democracia y el Estado de derecho. Este enfoque tiene como objetivo garantizar que estos sistemas se desarrollen y utilicen de manera ética y responsable, alineándose con los valores fundamentales del Consejo de Europa y del Convenio Europeo de Derechos Humanos.
Estructura de la metodología
HUDERIA se organiza en varias etapas que vertebran la evaluación de impacto:
-
Identificación de riesgos iniciales:
- En esta etapa se examina el contexto del sistema de IA, su finalidad, y las parte implicadas (desarrolladores, responsables del despliegue, usuarios).
- Además, se identifican los derechos fundamentales que pueden verse potencialmente afectados, como la privacidad, la no discriminación o la libertad de expresión.
-
Evaluación del impacto propiamente dicha:
- En esta parte se evalúan los riesgos en las tres dimensiones principales:
- Derechos humanos: evaluación de los posibles riesgos de discriminación, violación de privacidad, o afectaciones a la dignidad humana.
- Democracia: evaluación de los posibles impactos en la participación ciudadana, la libertad de información y el pluralismo.
- Estado de derecho: evaluación de las posibles interferencias o distorsiones a la independencia judicial, en el acceso a la justicia y en procesos democráticos.
- En esta parte se evalúan los riesgos en las tres dimensiones principales:
-
Mitigación y recomendación de medidas:
- Esta fase proporciona directrices específicas para mitigar los riesgos identificados, tales como implementar mecanismos de supervisión humana, mejorar la transparencia de los algoritmos y realizar auditorías periódicas.
- En la misma se promueve el uso de principios éticos como la reaplicabilidad, la responsabilidad y la equidad.
-
Supervisión y control continuos:
- Se establece un proceso de seguimiento dinámico para reevaluar continuamente los riesgos conforme evolucione el sistema de IA o cambien las condiciones del entorno en que se despliega.
Los principios que complementan a la herramienta
HUDERIA combina herramientas prácticas con principios éticos para garantizar su aplicabilidad:
- Principio de precaución: este principio indica que ante incertidumbres técnicas o legales se priorizarán medidas que minimicen los riesgos.
- Evaluación dinámica: según el cual los riesgos son reevaluados durante el ciclo de vida del sistema, desde su diseño hasta su implementación y puesta en producción.
- Transparencia y participación: este principio busca implicar a múltiples partes interesadas (gobiernos, empresas, sociedad civil y ciudadanos) en el proceso de evaluación del sistema de IA.
- Enfoque interdisciplinar: este principio sugiere la necesidad de combinar las perspectivas legales, técnicas y sociales para abordar los riesgos de manera integral y efectiva.
Objetivo de HUDERIA
El propósito de HUDERIA es proporcionar una metodología práctica que ayude a los estados, organizaciones y empresas a garantizar que el desarrollo y uso de sistemas de IA no comprometa los valores fundamentales del Consejo de Europa. Este marco busca fomentar la confianza pública en estas tecnologías, promoviendo un entorno digital, ético, justo y respetuoso de los derechos fundamentales.
Implicaciones con el AI Act
El Reglamento IA impone una obligación sustantiva para ciertos responsables del despliegue, en concreto, los organismos de Derecho público, o entidades privadas que prestan servicios públicos, los cuales, según el art. 27, tendrán que llevar a cabo una evaluación del impacto que la utilización de dichos sistemas puede tener en los derechos fundamentales. Se añaden los elementos y los requisitos que tal evaluación habrá de cumplir. Finalmente, se establece en el mismo artículo que para cumplir con esta obligación, la Oficina de IA elaborará un modelo de cuestionario, también mediante una herramienta automatizada, a fin de facilitar que los responsables del despliegue cumplan sus obligaciones. Entendemos que muy posiblemente la metodología HUDERIA pueda ser un elemento a ser tenido en cuenta en la elaboración del citado modelo de cuestionario.