L'Avantprojecte, que ara acaba de publicar-se i inicia el seu tràmit legislatiu, incorpora a més la possibilitat que l'entitat de supervisió obligui a la retirada si un sistema d'IA ha generat un incident greu. El text complet pot accedir-se en Veure text de l'Avantprojecte de Llei [PDF] [300,63 KB]. L'Avantprojecte de llei, que adaptarà l'ordenament jurídic espanyol a la normativa europea sobre IA (AI Act), pretén facilitar que els usuaris puguin diferenciar fàcilment els continguts que són reals dels quals són creats per IA (entre els quals Deep fakes, ultra fakes) a més d'evitar possible ús pervers d'aquesta tecnologia.
Els sistemes d'IA hauran de complir una sèrie d'obligacions i, en cas d'incompliment, s'exposen a sancions en funció de la seva gravetat. Per exemple, les infraccions molt greus es castiguen amb multes d'entre els 7,5 i els 15 milions d'euros o fins al 2% i el 3% del volum de negoci mundial de l'exercici anterior; i les greus, entre 500.000 euros i 7,5 milions d'euros o entre l'1% i el 2% del volum de negoci mundial d'exercici anterior. Per a les pimes, start ups i altres, està previst una valoració d'aquestes sancions conforme amb la mida i possibilitats d'aquest tipus d'empreses.
Finalitat de la norma
Com és sabut, el Reglament IA (AI Act) té un abast general, és obligatori en tots els seus elements i directament aplicable en cada estat membre una vegada entrin en vigor totes les seves obligacions, d'acord amb un calendari d'aplicació transitòria. A Espanya, l'ara Avantprojecte serà la norma de referència en matèria d'IA i haurà d'aportar seguretat jurídica - traslladant al nostre sistema conceptes, obligacions i infraccions que venen del Reglament- i fomentar el desenvolupament responsable de la IA i reforçar la competitivitat digital al nostre país. Es valora per alguns experts com una normativa prou equilibrada. Per a d'altres, queda curta. Segons alguns, la norma podria haver-se aprofitat per entrar en aspectes que van quedar exclosos del Reglament IA, com els sistemes d'IA exclusivament amb finalitats militars, de defensa o de seguretat nacional.
Règim sancionador
A més de l'anterior, per tal com els estats membres també disposen de marge de maniobra a l'hora d'establir sancions i altres mesures d'execució, podrien fixar-se altres mesures, com advertències o mesures no pecuniàries, per a les infraccions del Reglament IA. A més, els estats membres estan obligats a adoptar disposicions sobre la imposició de multes a les autoritats i organismes públics. Recordem que a Espanya, a diferència dels altres països europeus, a les administracions públiques, per llei, no se'ls imposa sancions econòmiques per vulneració de la normativa de protecció de dades, sinó meres "reprimendes" o advertències.
Com és sabut, el Reglament IA és una norma complexa i extensa, però no esgota tota la regulació possible sobre la IA. Així, els Estats poden regular qüestions complementàries, com les autoritats de control i de supervisió, però han d'assegurar-se que les noves mesures i obligacions no s'encavalquin amb les del Reglament IA o, pitjor encara, el contradiguin.
Èmfasi en la transparència
Com s'ha dit, s'espera que les empreses indiquin quan els continguts publicats han estat produïts per IA. Això és un aspecte d'especial importància per a certs sectors com els creatius, de generació de contingut o els publicitaris. Aquesta obligació és indispensable per les seves implicacions en la governança de la IA i per garantir la confiança de la ciutadania i la confiança d'aquestes eines. Els ciutadans han d'estar informats sobre l'origen dels continguts que visualitzen o consumeixen. De la mateixa forma, es posa el focus en evitar o limitar l'ús de la IA per a finalitats contràries a l'ètica.
Els principis que integren l'ètica són a vegades subjectius i, en tot cas, vinculats a l'entorn geogràfic i cultural, variant molt en funció del context. No és el mateix el significat que atribuïm aquí, per exemple, a l'equitat i la igualtat que en altres entorns. Pel que respecta al compliment dels principis ètics per part de les empreses, dependrà molt del compromís de la pròpia organització, ja que els esmentats principis ètics estaran integrats a Codis Ètics d'IA o Codis o Polítiques d'Ús d'IA, que són instruments voluntaris o de "soft law", però en cap cas obligatori ni exigibles. Aquell dia, podran ser –i ja ho estem veient al mercat- comunicats al públic com a avantatge competitiu per aquelles organitzacions que els adoptin i, sobretot, els compleixen.
Presentació d'al·legacions a la norma
Conforme a la normativa que regula la participació pública en la configuració de la normativa, s'ha iniciat el procés d'audiència pública per obtenir l'opinió dels ciutadans i de les organitzacions més representatives sobre la futura Llei per al bon ús i la governança de la intel·ligència artificial. El termini per presentar al·legacions és des de dimarts 18 de març de 2025 fins dimecres, 26 de març de 2025. Les al·legacions podran remetre's a la direcció de correu: tramitacion.dgdia@digital.gob.es indicant en l'assumpte: "Audiència pública APL bon ús i governança IA – Al·legacions [nom o raó social]".