La Comissió Europea ha publicat unes Directrius sobre les prohibicions establertes en la Llei d'Intel·ligència Artificial (AI Act), amb l'objectiu d'aclarir com han aquestes d'aplicar les empreses aquestes prohibicions i quins sistemes es consideren pràctiques d'IA prohibides.

Sense fer cas de les advertències del president Trump, que creu que la legislació europea busca imposar traves a les companyies tech americanes, Brussel·les continua amb el seu pla regulador, publicant les Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act. Com és sabut, el passat dia 2 de febrer va entrar en vigor una part del Reglament, justament la que fa referència a les pràctiques d'IA prohibides per ser contràries als principis i valors europeus.

Principals aspectes de les Directrius sobre pràctiques prohibides

Les Directrius busquen donar claredat a les empreses sobre com complir la normativa relativa a les prohibicions. Aquestes normes inclouen la prohibició de l'ús d'IA per a certes pràctiques, com la introducció al mercat de sistemes d'IA que se serveixin de tècniques subliminars o de tècniques deliberadament manipuladores; de sistemes que explotin alguna de les vulnerabilitats d'una persona o un grup específic de persones derivades de la seva edat o discapacitat, o d'una situació social o econòmica específica; sistemes per al reconeixement d'emocions en els llocs de treball i en els centres educatius.

Altres d'aquestes pràctiques prohibides serien els sistemes de categorització biomètrica que classifiquin individualment les persones físiques sobre la base de les seves dades biomètriques per deduir o inferir la seva raça, opinions polítiques, afiliació sindical, conviccions religioses o filosòfiques, vida sexual o orientació sexual; sistemes d'identificació biomètrica remota «en temps real» en espais d'accés públic amb finalitats d'aplicació de la llei o els sistemes anomenats de social scoring, dissenyats per avaluar o classificar persones físiques o grups de persones pel seu comportament social assignant-los una puntuació ciutadana.

Pròximes fites de la Llei de la IA

Al llarg dels anys vinents, fins a 2027, s'entraran en vigor les normes que inclouen les obligacions i requisits per a models d'IA avançats, en particular, per a sistemes d'alt risc. Les empreses que desenvolupin IA d'alt risc hauran de ser més transparents en la construcció dels seus models i dur a terme avaluacions de riscos, portar sistemes de gestió de la qualitat i sistemes de seguretat i ciberseguretat, redactar instruccions i manuals d'ús, models de governança de les dades, retenció de registres d'ús i, molt especialment, dur a terme avaluacions d'impacte en protecció de dades i avaluacions de conformitat amb tercers de confiança de manera que puguin obtenir el certificat i el marcatge CE.

Les empreses que no compleixin la normativa podran enfrontar-se a fortes multes de fins a 35 milions d'euros o fins i tot ser expulsades del mercat de la UE.

Entrant en conflicte amb el nou govern dels EUA i les grans tecnològiques

El Reglament IA havia generat ja tensions amb les grans empreses tecnològiques durant l'elaboració de la norma, però ara, amb l'administració de Donald Trump, s'han exacerbat. Trump, que acaba de treure diversos paquets derogant normativa que establia certes garanties en el desenvolupament de la IA al seu país, ha expressat el seu descontentament amb la regulació europea, qualificant-la com una forma d'"impost" sobre les empreses nord-americanes.

Les grans tecnològiques també han criticat la normativa, argumentant que podria frenar la innovació en IA a Europa. S'oposen, en particular, a l'obligació de proporcionar més transparència sobre els seus models d'IA i permetre l'accés de tercers al seu codi per avaluar riscos. Però el cert és que aquesta ona de desregulació que s'està desenvolupant als EUA els ve molt bé.

Pròxims passos i possible gir cap a la flexibilització

A Brussel·les hi ha preocupació en relació amb la pressió dels EUA per "suavitzar" l'aplicació de la Llei de la IA. Si bé la Comissió Europea ha reiterat que la normativa no canviarà, sí que ha expressat que s'orienta a aplicar les regles de manera flexible per fomentar la innovació. Actualment, a més, s'està redactant ara mateix en l'AI l'Office juntament, amb experts i stakeholders, un codi de bones pràctiques per a la IA de propòsit general.

Aquest codi, si bé de voluntari compliment com tota eina de soft law o autoregulació, afectarà models com Google Gemini i OpenAI GPT-4 i d'altres. El codi de bones pràctiques té per objecte orientar en com aplicar les regles a la pràctica i es finalitzarà a l'abril. Ateses les pressions de la indústria i dels EUA existeix el risc real d'un desenvolupament més lax o descafeïnat, debilitant les obligacions inicialment previstes. Estarem molt atents a aquests desenvolupaments.