El Ministerio para la Transformación Digital y de la Función Pública lanza la primera convocatoria de este entorno controlado de pruebas para sistemas de inteligencia artificial de alto riesgo. Las solicitudes podrán presentarse desde el 23 de diciembre de 2024 hasta el 23 de enero de 2025.
España pone en marcha el primer sandbox de IA “para promover la innovación en IA de manera responsable y con la intención de convertirse en un apoyo principalmente para las pymes y startups en la implementación de los requisitos establecidos por la ley de IA para los sistemas de alto riesgo”.
Con base legal en la AI Act
La UE aprobó el Reglamento de Inteligencia Artificial (AI Act) que entró en vigor en agosto pasado en los diferentes Estados miembro, siendo esta la primera ley integral de Inteligencia Artificial del mundo. Sigue el anuncio del Ministerio: “Esta ley promueve una IA centrada en el ser humano, establece un marco regulatorio para el uso de la IA y tiene la ambición de mitigar el posible impacto de los sistemas IA sobre los derechos fundamentales, la salud y la seguridad, así como la protección de la democracia, el Estado de derecho y el medio ambiente”.
Definición de Sistemas de IA de Alto Riesgo
Según la AI Act, se consideran de alto riesgo aquellos sistemas que afectan significativamente la seguridad, la salud o los derechos fundamentales de los ciudadanos europeos. Son ejemplos los sistemas de evaluación de solvencia crediticia, de aplicación de la ley, de control de fronteras, administración de justicia y procesos democráticos, y la identificación biométrica en ciertas condiciones.
Objetivo del sandbox de IA
El propósito principal de este entorno controlado de pruebas es proporcionar apoyo y seguridad jurídica en la aplicación de la AI Act, facilitando la implementación de las obligaciones que establece, especialmente para pymes y startups que pueden encontrar dificultades para cumplir con los requisitos necesarios para poner en el mercado sistemas de IA de alto riesgo.
Estructura de la convocatoria
La convocatoria seleccionará hasta 12 sistemas de IA de alto riesgo y se desarrollará en tres fases a lo largo de un año:
- Formación y consultoría: Se proporcionará capacitación sobre los requisitos aplicables a los sistemas de IA de alto riesgo.
- Evaluación de conformidad: Se analizarán los cambios necesarios para que los sistemas se alineen con las obligaciones legales.
- Verificación de cumplimiento: Se llevará a cabo un proceso de verificación que otorgará a los sistemas un valor añadido de alineación con el Reglamento antes de su comercialización.
Las entidades participantes tendrán acceso a expertos independientes que les asesorarán durante todo el proceso de adaptación.
Resultados de la convocatoria de sandbox
Al finalizar el proyecto, se generarán y publicarán guías técnicas basadas en la evidencia y la experimentación, con buenas prácticas y recomendaciones para facilitar la implementación de los requisitos para sistemas de IA de alto riesgo. Estas guías también influirán en el desarrollo reglamentario y de estándares a nivel europeo, preparando al ecosistema español y europeo para futura normativa de desarrollo.
Alineación con otras estrategias
Esta iniciativa se enmarca en la Estrategia Nacional de IA 2024, que busca posicionar a España como un hub de excelencia científica e innovación en IA, promoviendo su aplicación para abordar retos sociales y económicos en sectores estratégicos. Se espera que este sandbox de IA permita dar apoyo al ecosistema de innovación y de convertirse en un referente en el desarrollo de una inteligencia artificial responsable y centrada en el ser humano en la Unión Europea y a nivel mundial.
Para más información sobre la convocatoria y detalles adicionales, se puede consultar la web oficial del programa en el Ministerio: https://avance.digital.gob.es/sandbox-IA/Paginas/sandbox-IA.aspx