El debat legislatiu sobre la intel·ligència artificial tan sols acaba de començar. Amb una normativa exprés creada des del Parlament Europeu per promoure una regularització abans que l'esclat de la IA es faci massa evident dins les empreses, aquesta ja preveu sancions i multes pels qui no apliquin una ètica que, segons Estrasburg, sembla de caràcter obligatori davant d'altres grans potències com Amèrica o la Xina que ni tan sols han començat a crear cap marc regulatori. D'aquesta manera, el 14 de juny de 2023, el Parlament Europeu va adoptar la seva posició de negociació sobre la llei d'IA. La prioritat del Parlament és garantir que els sistemes d'IA utilitzats a la UE siguin segurs, transparents, traçables, no discriminatoris i respectuosos amb el medi ambient. El Parlament també vol establir una definició uniforme i tecnològicament neutral d'IA que es pugui aplicar als futurs sistemes d'IA. La Llei d'IA estableix diferents regles per a diferents nivells de risc d'IA.

La llei estableix un sistema de sancions per a aquells que incompleixin les disposicions. Les sancions poden incloure multes i altres mesures administratives, segons la gravetat de l'incompliment. Les multes poden ser considerables, i arribar fins al 6% dels ingressos globals anuals d'una empresa o 30 milions d'euros, el que sigui més gran (algunes fonts assenyalen els 40 milions com a sostre per a les sancions). Les noves normes estableixen obligacions per als proveïdors i usuaris en funció del nivell de risc de la IA. Encara que molts sistemes d'IA representen un risc mínim, s'han d'avaluar.

Risc inacceptable

Els sistemes d'IA de risc inacceptable són sistemes considerats com una amenaça per a les persones i seran prohibits. Ells ho entenen:

• manipulació cognitivo-conductual de persones o grups vulnerables específics: per exemple, joguines activades per veu que fomenten comportaments perillosos en els nens.

• una puntuació social: classificar les persones segons el seu comportament, el seu estatus socioeconòmic, les seves característiques personals

• categorització biomètrica i identificació de persones

• Sistemes d'identificació biomètrica en temps real i remots, com ara el reconeixement facial.

Es poden permetre determinades excepcions per a finalitats d'aplicació de la llei. Els sistemes d'identificació biomètrica remota "en temps real" es permetran en un nombre limitat de casos greus, mentre que els sistemes d'identificació biomètrica remota ex post, quan la identificació es produeixi després d'un retard important, es permetran per processar delictes greus i només després de l'aprovació judicial.

Alt risc  

Els sistemes d'IA que tinguin un impacte negatiu en la seguretat o els drets fonamentals es consideraran d'alt risc i es dividiran en dues categories.

1. Sistemes d'IA que s'utilitzen en productes coberts per la legislació de seguretat de productes de la UE . Això inclou joguines, aviació, cotxes, dispositius mèdics i ascensors.

2. Sistemes d'IA en àrees específiques que s'hauran de registrar en una base de dades de la UE:

• gestió i explotació d'infraestructures crítiques

• educació i formació professional

• ocupació, gestió dels treballadors i accés a l'autoocupació

• accés i gaudi dels serveis privats essencials i serveis i prestacions públiques

• la policia

• gestió de la migració, asil i control de fronteres

• assistència en la interpretació i aplicació legals de la llei.

Tots els sistemes d'IA d'alt risc s'avaluaran abans del llançament al mercat i al llarg del seu cicle de vida. Els ciutadans tindran dret a presentar queixes sobre sistemes d'IA davant les autoritats nacionals designades.

Requisits de transparència

La IA generativa, com ChatGPT, no es classificarà com a d'alt risc, però haurà de complir els requisits de transparència i la llei de drets d'autor de la UE:

• indicar que el contingut ha estat generat per IA

• dissenyar la plantilla per evitar que generi contingut il·legal

• publicar resums de dades amb drets d'autor utilitzades per a la formació 

Els models d'IA de propòsit general d'alt impacte que poden suposar un risc sistèmic, com el model d'IA GPT-4 més avançat, s'han de sotmetre a avaluacions en profunditat i informar de qualsevol incident greu a la Comissió. El contingut generat o editat amb IA (imatges, àudio o fitxers de vídeo (per exemple, "deepfakes")) s'ha d'etiquetar clarament com a generat per IA, de manera que els usuaris sàpiguen que es tracta d'aquest tipus de contingut.