El Anteproyecto, que ahora acaba de publicarse e inicia su trámite legislativo, incorpora además la posibilidad de que la entidad de supervisión obligue a la retirada si un sistema de IA  ha generado un incidente grave. El texto completo puede accederse en Ver texto del Anteproyecto de Ley [PDF] [300,63 KB]. El Anteproyecto de ley, que adaptará el ordenamiento jurídico español a la normativa europea sobre IA (AI Act), pretende facilitar que los usuarios puedan diferenciar fácilmente los contenidos que son reales de los que son creados por IA (entre los cuales Deep fakes, ultra fakes) además de evitar posible uso perverso de esta tecnología.

Los sistemas de IA deberán cumplir una serie de obligaciones y, en caso de incumplimiento, se exponen a sanciones en función de su gravedad. Por ejemplo, las infracciones muy graves se castigan con multas de entre los 7,5 y los 15 millones de euros o hasta el 2% y el 3% del volumen de negocio mundial del ejercicio anterior; y las graves, entre 500.000 euros y 7,5 millones de euros o entre el 1% y el 2% del volumen de negocio mundial de ejercicio anterior. Para las pymes, star-ups y demás, está previsto una valoración de estas sanciones acorde con el tamaño y posibilidades de este tipo de empresas.

Finalidad de la norma

Como es sabido, el Reglamento IA (AI Act) tiene un alcance general, es obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro una vez entren en vigor todas sus obligaciones, de acuerdo con un calendario de aplicación transitoria. En España, el ahora Anteproyecto será la norma de referencia en materia de IA y deberá de aportar seguridad jurídica - trasladando a nuestro sistema conceptos, obligaciones e infracciones que vienen del Reglamento- y  fomentar el desarrollo responsable de la IA y reforzar la competitividad digital en nuestro país. Se valora por algunos expertos como una normativa suficientemente equilibrada. Para otros, se queda corta. Según algunos, la norma podría haberse aprovechado para entrar en aspectos que quedaron excluidos del Reglamento IA, como los sistemas de IA exclusivamente con fines militares, de defensa o de seguridad nacional.

Régimen sancionador

Además de lo anterior, por cuanto los Estados miembros también disponen de margen de maniobra a la hora de establecer sanciones y otras medidas de ejecución, podrían fijarse otras medidas, como advertencias o medidas no pecuniarias, para las infracciones del Reglamento IA. Además, los Estados miembros están obligados a adoptar disposiciones sobre la imposición de multas a las autoridades y organismos públicos. Recordemos que en España, a diferencia de los demás países europeos, a las administraciones públicas, por ley, no se les impone sanciones económicas por vulneración de la normativa de protección de datos, sino meras “reprimendas” o advertencias.

Como es sabido, el Reglamento IA es una norma compleja y extensa, pero no agota toda la regulación posible sobre la IA. Así, los Estados pueden regular cuestiones complementarias, como las autoridades de control y de supervisión, pero han de asegurarse de que las nuevas medidas y obligaciones no se solapen con las del Reglamento IA o, peor aún, lo contradigan.

Énfasis en la transparencia

Como se ha dicho, se espera que las empresas indiquen cuándo los contenidos publicados han sido producidos por IA. Ello es un aspecto de especial importancia para ciertos sectores como los creativos, de generación de contenido o los publicitarios. Esta obligación es indispensable por sus implicaciones en la gobernanza de la IA y para garantizar la confianza de la ciudadanía y la confiabilidad de estas herramientas. Los ciudadanos han de estar informados sobre el origen de los contenidos que visualizan o consumen. De la misma forma, se pone el foco en evitar o limitar el uso de la IA para fines contrarios a la ética.

Los principios que integran la ética son en ocasiones subjetivos y, en todo caso, vinculados al entorno geográfico y cultural, variando mucho en función del contexto.  No es lo mismo el significado que atribuimos aquí, por ejemplo, a la equidad y la igualdad que en otros entornos. Por lo que respecta al cumplimiento de los principios éticos por parte de las empresas, dependerá mucho del compromiso de la propia organización, pues dichos principios éticos estarán integrados en Códigos Éticos de IA o Códigos o Políticas de Uso de IA, que son instrumentos voluntarios o de “soft law”, pero en ningún caso obligatorio ni exigibles. Ese día, podrán ser –y ya lo estamos viendo en el mercado- comunicados al público como ventaja competitiva por aquellas organizaciones que los adopten y, sobre todo, los cumplen.

Presentación de alegaciones a la norma

Conforme a la normativa que regula la participación pública en la configuración de la normativa, se ha iniciado el proceso de audiencia pública para recabar la opinión de los ciudadanos y de las organizaciones más representativas sobre la futura Ley para el buen uso y la gobernanza de la inteligencia artificial. El plazo para presentar alegaciones es desde el martes 18 de marzo de 2025 hasta el miércoles, 26 de marzo de 2025. Las alegaciones podrán remitirse a la dirección de correo: tramitacion.dgdia@digital.gob.es indicando en el asunto: "Audiencia pública APL buen uso y gobernanza IA – Alegaciones [nombre o razón social]".