El debate legislativo sobre la inteligencia artificial tan solo acaba de empezar. Con una normativa exprés creada desde el Parlamento Europeo para promover una regularización antes de que el estallido de la IA se haga demasiado evidente dentro de las empresas, esta ya prevé sanciones y multas por los que no apliquen una ética que, según Estrasburgo, parece de carácter obligatorio ante otras grandes potencias como América o China que ni siquiera han empezado a crear ningún marco regulatorio. De esta manera, el 14 de junio de 2023, el Parlamento Europeo adoptó su posición de negociación sobre la ley de IA. La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutral de IA que se pueda aplicar a los futuros sistemas de IA. La Ley de IA establece diferentes reglas para diferentes niveles de riesgo de IA.

La ley establece un sistema de sanciones para aquellos que incumplan las disposiciones. Las sanciones pueden incluir multas y otras medidas administrativas, según la gravedad del incumplimiento. Las multas pueden ser considerables, y llegar hasta el 6% de los ingresos globales anuales de una empresa o 30 millones de euros, lo que sea mayor (algunas fuentes señalan los 40 millones como techo para las sanciones). Las nuevas normas establecen obligaciones para los proveedores y usuarios en función del nivel de riesgo de la IA. Aunque muchos sistemas de IA representan un riesgo mínimo, se tienen que evaluar.

Riesgo inaceptable

Los sistemas de IA de riesgo inaceptable son sistemas considerados como una amenaza para las personas y estarán prohibidos. Ellos lo entienden:

• manipulación cognitivo-conductual de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños.

• una puntuación social: clasificar a las personas según su comportamiento, su estatus socioeconómico, sus características personales

• categorización biométrica e identificación de personas

• Sistemas de identificación biométrica en tiempo real y remotos, como el reconocimiento facial.

Se pueden permitir determinadas excepciones para finalidades de aplicación de la ley. Los sistemas de identificación biométrica remota "en tiempo real" se permitirán en un número limitado de casos graves, mientras que los sistemas de identificación biométrica remota cuando la identificación se produzca después de un retraso importante, se permitirán para procesar delitos graves y solo después de la aprobación judicial.

Alto riesgo

Los sistemas de IA que tengan un impacto negativo en la seguridad o los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías.

1. Sistemas de IA que se utilizan en productos cubiertos por la legislación de seguridad de productos de la UE. Eso incluye juguetes, aviación, coches, dispositivos médicos y ascensores.

2. Sistemas de IA en áreas específicas que se tendrán que registrar en una base de datos de la UE:

• gestión y explotación de infraestructuras críticas

• educación y formación profesional

• empleo, gestión de los trabajadores y acceso al autoempleo

• acceso y disfrute de los servicios privados esenciales y servicios y prestaciones públicas

• la policía

• gestión de la migración, asilo y control de fronteras

• asistencia en la interpretación y aplicación legales de la ley.

Todos los sistemas de IA de alto riesgo se evaluarán antes del lanzamiento al mercado y a lo largo de su ciclo de vida. Los ciudadanos tendrán derecho a presentar quejas sobre sistemas d'IA ante las autoridades nacionales designadas.

Requisitos de transparencia

La IA generativa, como ChatGPT, no se clasificará como de alto riesgo, pero tendrá que cumplir los requisitos de transparencia y la ley de derechos de autor de la UE:

• indicar que el contenido ha sido generado por IA

• diseñar la plantilla para evitar que genere contenido ilegal

• publicar resúmenes de datos con derechos de autor utilizados para la formación

Los modelos de IA de propósito general de alto impacto que pueden suponer un riesgo sistémico, como el modelo de IA GPT-4 más avanzado, se tienen que someter a evaluaciones en profundidad e informar de cualquier incidente grave a la Comisión. El contenido generado o editado con IA (imágenes, audio o ficheros de vídeo (por ejemplo, "deepfakes")) se tiene que etiquetar claramente como generado por IA, de manera que los usuarios sepan que se trata de este tipo de contenido.