El Consejo de la Unión Europea ha dado este martes el visto bueno final a la primera ley europea -y del mundo- para regular el uso de la inteligencia artificial, para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. "La ley es histórica, la primera de este tipo en el mundo, porque aborda un reto tecnológico global y también crea oportunidad para las sociedades y economías", ha manifestado el secretario de estado para la digitalización de Bélgica, Mathieu Michel, en nombre de la presidencia belga del Consejo de la Unión. Una vez se publique la norma en el diario oficial de la UE "en los próximos días", los países miembros como España tendrán un máximo de dos años para transponer la ley y aplicarla en sus respectivos estados, a la vez que deberán velar por su cumplimiento.
¿Pero qué significa tener unas normas establecidas para regular la inteligencia artificial según el nivel de peligro que supone para los usuarios? Basándose en que los distintos niveles de peligro implican una mayor o menor regulación, la nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA, por pequeño que sea. Así, los sistemas que presenten "riesgos limitados" estarán sujetos a unas obligaciones de transparencia más laxas, mientras que los que supongan "riesgos elevados" únicamente podrán utilizarse bajo autorización y cumpliendo una serie de requisitos.
Por ello, serán inaceptables:
- manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños
- puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales
- sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Únicamente se aceptarán excepciones en campos como la defensa o la investigación, y siempre bajo autorización judicial, como por ejemplo para prevenir amenazas terroristas o combatir el tráfico de personas. En el caso de los sistemas de inteligencia artificial generativa, como ChatGPT, estos tendrán que especificar si un contenido está generado a través de inteligencia artificial. Es decir, ChatGPT tendrá que cumplir requisitos de transparencia y con la legislación de la UE en materia de derechos de autor:
- revelar que el contenido ha sido generado por IA
- diseñar el modelo para evitar que genere contenidos ilegales
- publicar resúmenes de los datos protegidos por derechos de autorg utilizados para el entrenamiento
En la nueva norma sobre la inteligencia artificial también se identifican sistemas de riesgo que solamente podrán comercializarse si los desarrolladores garantizan que respetan los derechos fundamentales. Al mismo tiempo, la norma también busca impulsar la industria europea frente a potencias como Estados Unidos o China.
Impulso de la innovación
La legislación contempla poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.
Para asegurar el cumplimiento de la ley, la UE creará una oficina sobre inteligencia artificial en la Comisión Europea. En paralelo, se designará un panel de expertos independientes que ofrecerán recomendaciones a las instituciones y también se creará una mesa con representantes de todos los Estados miembros para realizar un seguimiento de la aplicación de la norma. En casos de incumplimiento, las empresas se exponen a una multa que equivaldría a un porcentaje de su volumen de negocio anual, una cifra que sería "proporcional" en el caso de las pymes y empresas emergentes.