El Reglamento de IA o AI Act de la UE, primer marco legal sobre IA mundial, entró en vigor el 1 de agosto de 2024. Entre los principales objetivos de Reglamento IA están garantizar que los sistemas de IA respeten la seguridad, la salud y los derechos fundamentales de las personas, y abordar los riesgos de los modelos de IA muy potentes. El Reglamento IA proporciona un enfoque uniforme para abordar estos retos y problemas en toda la UE. 

El Reglamento establece un período de transición de tres años para sistemas integrados en productos que ya están sujetos a evaluación de conformidad por terceros (como, por ejemplo, el coche autónomo) según lo que se dispone en el Anexo I del Reglamento. Por otra parte se establece un período de dos años para los sistemas de alto riesgo identificados en el Anexo III del Reglamento (los sistemas que pueden afectar a los derechos fundamentales, por ejemplo, en materia de educación y de trabajo, en materia de inmigración, etc.). 

En el informe de políticas publicado en el portal de la Comisión que analizamos aquí, – elaborado por los expertos Josep Soler Garrido, Sarah de Nigris, Elias Bassani, Ignacio Sánchez, Tatjana Evas, Antoine-Alexandre André y Thierry Boulangé- los autores se centran en los requisitos esenciales establecidos en el Reglamento IA para los sistemas de IA de alto riesgo y en el papel de los estándares en cómo poder cumplir dichos requisitos en la práctica. 

Los requisitos de los sistemas de alto riesgo en el AI Act

Como se ha dicho, tras el período transitorio, que será de dos o tres años según lo indicado más arriba, los sistemas de IA - y sus desarrolladores, comercializadores y hasta usuarios- tendrán que haberse adaptado. Ello implica que, por ejemplo, a partir de agosto de 2026, los sistemas de IA de alto riesgo deberán cumplir con requisitos relacionados con la gestión de riesgos, la calidad y la gobernanza de los datos, obligaciones de registro y trazabilidad, documentación técnica, transparencia, supervisión humana, precisión, robustez y ciberseguridad. 

El cumplimiento de estos requisitos se garantizará mediante el establecimiento de un sistema de gestión de calidad y una evaluación de conformidad, ambos previos a la comercialización y puesta en el mercado del sistema de IA.

¿Qué son los estándares?

Los estándares son normas de calidad (normalización) que desarrollan distintas entidades sectoriales (CENELEC, AENOR) y son de cumplimiento voluntario dentro de los sectores que pretenden estandarizar. Según el informe “Los estándares son instrumentos importantes para apoyar la implementación de las políticas y legislación de la Unión, y para garantizar un alto nivel de protección de la seguridad y los derechos fundamentales para todas las personas en la Unión. Los estándares también pueden apoyar el establecimiento de condiciones de competencia equitativas para el diseño y desarrollo de sistemas de IA, en particular para las pequeñas y medianas empresas que desarrollan soluciones de IA.” 

¿Por qué son importantes los estándares?

Los estándares armonizados para el Reglamento IA, una vez publicados en el Diario Oficial de la UE, otorgarán una presunción legal de conformidad a los sistemas de IA desarrollados de acuerdo y en cumplimiento de dichos estándares.

Los autores del informe estiman que hay una serie de características que se espera que tengan los estándares armonizados para el Reglamento IA. Estas características las basan en el análisis del texto final de la norma y en el proyecto de estandarización que ha iniciado la Comisión. La Comisión lanzó una solicitud de estandarización y varias organizaciones europeas de normalización, encabezadas por CEN y CENELEC, están en proceso de elaborar las estas normas en respuesta a dicha solicitud de la Comisión.

Además, los estándares para el Reglamento IA deben mostrar unas cualidades esenciales, independientemente del área técnica de la confiabilidad de la IA que aborden. En concreto, los estándares deben: estar adaptados a los objetivos del Reglamento IA; estar orientados a sistemas y productos de IA; ser suficientemente prescriptivos y claros; ser aplicables en todos los sectores y sistemas; estar actualizados con el estado del arte; ser cohesivos y complementarios.

Los entregables de estandarización solicitados por la Comisión Europea cubren diez aspectos concretos de la IA, que se presentan con varias consideraciones clave y prioridades relacionadas con su contenido, que los normalizadores pueden tener en cuenta para que estén alineados con el texto del Reglamento. 

¿Qué ámbitos abordarán los estándares de IA?

Se trata de los entregables en los siguientes ámbitos:

  • Gestión de riesgos
  • Gobernanza y calidad de datos
  • Registro
  • Supervisión humana
  • Precisión 
  • Transparencia
  • Robustez
  • Ciberseguridad
  • Gestión de calidad
  • Evaluación de conformidad

Los autores recomiendan que, dado el corto período que falta para la aplicación de las disposiciones para sistemas de IA de alto riesgo, la redacción de estas estándares debe avanzar de manera rápida y constante en los próximos meses. Por otro lado, destacan que es esencial que el nivel de consenso alcanzado por los expertos técnicos sea suficientemente profundo. Según el informe, los requisitos capturados en los estándares deben ser claros, precisos y accionables, reduciendo el esfuerzo y la incertidumbre asociados con el cumplimiento normativo, especialmente para las pequeñas y medianas empresas que desarrollan soluciones innovadoras de IA.

Belén Arribas Sánchez

Abogada especializada en IA