La Ley d'IA pretende convertirse en un marco global y una palanca para el marketing territorial europeo, mediante el establecimiento de condiciones de funcionamiento basadas en principios éticos. Las empresas que integran o despliegan IA ya se tienen que preparar para los cambios introducidos por el nuevo Reglamento europeo. "Esta ley histórica, la primera de este tipo en el mundo, responde a un reto tecnológico global y crea oportunidades para nuestras sociedades y economías. Con la Ley de IA, Europa destaca la importancia de la confianza, la transparencia y la responsabilidad en el tratamiento de las nuevas tecnologías, a la vez que garantiza que esta tecnología en rápida evolución pueda prosperar e impulsar la innovación europea", declaró a Mathieu Michel, secretario de Estado belga responsable de la digitalización, simplificación administrativa y protección de la intimidad, a raíz de la adopción del texto por el Consejo de Europa.
El reglamento que establece normas armonizadas sobre inteligencia artificial tardó solo 3 años en ser aprobado formalmente por el Consejo. Después de haber sido firmado muy pronto por los presidentes del Parlamento Europeo y del Consejo, el acto legislativo se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor a los veinte días de esta publicación. La nueva regulación se aplicará, y se trata de una innovación, 6 meses después de su entrada en vigor, para determinados usos de la IA que presenten un riesgo inaceptable. "Es importante prever la aplicación de prohibiciones para tener en cuenta riesgos inaceptables y tener efecto en otros procedimientos, por ejemplo en derecho civil", especifica el Reglamento.
Plazos y condiciones
Las disposiciones relativas a los órganos notificados y la estructura de gobierno se tienen que aplicar 12 meses después de la publicación del texto, así como las obligaciones para los proveedores de modelos de IA de uso general. Además, los códigos de buenas prácticas tendrían que estar preparados como máximo 9 meses después de la fecha de entrada en vigor. El resto de medidas entrarán en vigor dos años después de la publicación. El Reglamento forma parte de un paquete normativo destinado a estimular la innovación. No se aplica a los sistemas utilizados exclusivamente con finalidades militares y de defensa o de seguridad nacional, así como con finalidades de investigación.
Así pues, la Ley de IA clasifica cuatro tipos de inteligencia artificial en función del riesgo: inaceptable, alta, limitada, mínima o no. Los sistemas de riesgo inaceptable incluyen aquellos dirigidos a evaluaciones sociales, perfiles, incitación a comportamientos peligrosos mediante dispositivos de interacción o técnicas subliminales por debajo del umbral de conciencia de una persona para alterar sustancialmente su comportamiento y causar un daño físico o psicológico, o la identificación biométrica remota "en tiempo real". sistemas en espacios públicos con finalidades policiales (con determinadas excepciones). Los sistemas de alto riesgo afectan generalmente a sectores críticos o de vital importancia. Por ejemplo, las tecnologías de IA del transporte que pueden poner en peligro la vida y la salud de los ciudadanos; tecnologías de IA utilizadas en la educación o el empleo; tecnologías utilizadas en componentes de seguridad del producto; servicios públicos y privados esenciales como la evaluación del riesgo de crédito; tecnologías de IA utilizadas en la aplicación de la ley; Tecnologías de IA utilizadas en la gestión de la migración, el asilo y los controles fronterizos (por ejemplo, verificar la autenticidad de los documentos de viaje); Tecnologías de IA utilizadas en la administración de justicia y procesos democráticos. Los sistemas de riesgo limitado incluyen chatbots o herramientas de apoyo a la toma de decisiones. Las soluciones de riesgo mínimo son, por ejemplo, los videojuegos con inteligencia artificial o los filtros de correo basura.
Para evitar matar iniciativas de IA, el texto establece un marco legal favorable a la innovación y orientado a promover el aprendizaje normativo basado en la evidencia. El texto prevé "cajas de arena" reguladoras de IA que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas innovadores de IA. También tendrían que permitir probar sistemas innovadores de IA en condiciones reales. El texto crea varias estructuras. Una Oficina Europea de Inteligencia Artificial (Oficina de IA), que será la encargada de facilitar el cumplimiento y reducir la carga administrativa de los desdobladores de IA. Dentro de la Comisión, es responsable de hacer cumplir las normas comunes a toda la UE.
Las infracciones de la ley de IA serán sancionadas en función de un porcentaje de la facturación anual global de la empresa o de una cantidad predeterminada, lo que sea mayor. "El incumplimiento de la prohibición de las prácticas de IA a que se refiere el artículo 5 está sujeto a sanciones administrativas de hasta 35.000.000 de euros o, si el autor del delito es una empresa, hasta el 7% de su facturación mundial anual total alcanzada durante el periodo. el ejercicio anterior, lo que sea más elevado. Se pueden combinar otras sanciones penales o administrativas. Las pymes y startups estarán sujetos a sanciones administrativas proporcionales. Antes del despliegue de un sistema de IA de alto riesgo por parte de determinadas entidades que prestan servicios públicos, habrá que evaluar el impacto en los derechos fundamentales. Los sistemas de IA de alto riesgo tendrán que estar registrados en una base de datos de la UE accesible a todo el mundo.