El pasado 12 de julio, se publicó en el diario oficial de la Unión Europea el nuevo Reglamento de Inteligencia Artificial y este jueves, 1 de agosto, entra en vigor. Así pues, a partir de esta fecha, será plenamente aplicable 24 meses después, excepto para ciertas disposiciones específicas: prohibiciones de prácticas prohibidas que ya será solo 6 meses después. Los códigos de práctica, tan solo 9 meses después.

Las normas de IA de uso general, incluida la gobernanza, que será 12 meses después. Y se prolongan las obligaciones para sistemas de alto riesgo hasta 36 meses después. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y los privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Estos sistemas han de avaluar y reducir los riesgos, mantener registros de uso ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y las ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en estos que afecten a sus derechos.

¿Qué persigue este reglamento?

Así pues, el nuevo reglamento persigue garantizar la seguridad y el cumplimiento de los derechos fundamentales, a la vez que impulsa la innovación en el ámbito de la inteligencia artificial. Este marco legal representa un paso significativo para la UE en su objetivo de convertirse en un líder global en IA fiable. Gracias al Reglamento, las organizaciones ahora tienen directrices claras para la automatización en áreas de bajo riesgo, como chatbots simples, facilitando su implementación escalable con certeza y transparencia. Asimismo, se categorizan los riesgos para guiar el desarrollo de modelos más complejos, conocidos como "caja negra".

El impacto global del reglamento dependerá la adopción de los diferentes países, que ya han mostrado divergencias iniciales para interpretarlas. Esta división de criterios podría suponer un desafío para las organizaciones que operan a nivel internacional, por lo cual es esencial desarrollar estrategias de IA flexibles que se puedan adaptar a medida que se aclaren los detalles durante la implementación. Así, es crucial una preparación anticipada para cumplir la nueva regulación a la hora de aprovechar oportunidades emergentes en el campo de la IA.

La Ley de Inteligencia Artificial responde directamente a las propuestas de los ciudadanos de la Conferencia sobre el Futuro de Europa, relativa a la mejora de la competitividad de la UE en sectores estratégicos y sobre una sociedad segura y fiable, incluida la lucha contra la desinformación y la garantía de que las personas tengan el control final. También promueve la garantía de la supervisión humana y un uso fiable y responsable de la IA, el establecimiento de salvaguardias y la garantía de transparencia, así como el uso de la IA y las herramientas digitales para mejorar el acceso de los ciudadanos a la información, incluidas las personas con discapacidad.