Mireia Artigot Golobardes, advocada i investigadora Ramon y Cajal a la Facultat de Dret de la Universitat Pompeu Fabra (UPF), lidera amb la UPF una recerca a nivell europeu sobre l’ús de la intel·ligència artificial en l’àmbit de la justícia, on hi participen uns 50 investigadors i 32 jutges, a més d’altres membres, que faran reunions de treball a Nàpols, París i Barcelona el 2025. De la seva experiència internacional, Artigot va ser law clerk d' Edwin H. Stern, jutge president del Tribunal d'Apel.lació de Nova Jersey. Explica apasionada la seva recerca, i alhora ens exigeix, a tots els ciutadans, que siguem crítics en l'ús de les tecnologies, i que  lluitem pels nostres drets davant la irrupció de la intel·ligència artificial, i sobre tot la generativa.

L'advocada Mireia Artigot, en un moment de l'entrevista a la UPF. / Foto: Montse Giralt

En què consisteix la seva  recerca?
Soc economista i em dedico al dret privat, al dret de contractes i dret de consum des d’un punt de vista d’anàlisi econòmica. En els darrers anys, l’impacte i la disrupció de tot l’àmbit digital ha transformat el focus de la meva recerca que  continua en temes de consum, però, més en contractació en entorns digitals, estructures normatives i econòmiques de les plataformes digitals. I  ara estic  en un projecte de recerca, que coordinem des de la Universitat Pompeu Fabra i que lidero, sobre l’impacte de la intel·ligència artificial a la justícia i com impacta en els drets fonamentals. És a dir, part de la meva recerca se centra en analitzar la irrupció de la intel·ligència artificial a l’àmbit judicial.

I què ha vist?
Vam començar el febrer passat. I la setmana vinent tindrem la primera conferència a Nàpols, on treballarem l’ús d’eines de decisions automatitzades a l’àmbit de la justícia, bàsicament des de tres punt de vista: el sistema judicial com a generador de dades; com a usuaris d’intel·ligència artificial, i com a enjudiciadors de decisions preses per part d’agents públics o privats amb sistemes automatitzats o d’intel·ligència artificial. És un triple anàlisi i estem en un moment de transició molt important.

Ja s’usa la intel·ligència  artificial a la justícia?
Sí. Tenim coneixement que grans despatxos d’advocats han presentat demandes als jutjats amb l’ús d’intel·ligència artificial. Alguns ens diuen que encara ho ha de revisar una persona, però usen bases de dades i sistemes que els jutges no tenen.

I què diuen els jutges?
Els jutges ho veuen i exposen el que necessiten, i ara per ara no tenen eines. A l’Administració de Justícia hi ha l’expedient digital, però aquest no filtra res: quan el jutge ha de buscar una dada, ho ha de fer manualment, o movent el ratolí amunt i avall de la pantalla de l'ordinador.

La investigadora, a l'edifici de la UPF Ciutadella. / Foto: Montse Giralt

A l’Administració de Justícia hi ha l’expedient digital, però aquest no filtra res

On s'usa intel·ligència artificial?
Sobretot en l’àmbit de consum. Cadascú de nosaltres fem moltes transaccions al dia, cada una és un contracte. Hi ha altres com és agafar un avió, la compra d’electrodomèstics, els contracte amb telefòniques, tecnològiques... Tots som  consumidors i consumidores quan actuem en l’àmbit privat. Tot està regulat, la Unió Europea i els estats tenen una responsabilitat de proporcionar un alt nivell de protecció als consumidors. Però les empreses redacten aquests contractes que no són individuals per a cada u de nosaltres, com ara les factures. És el  que ha passat amb tota la litigació hipotecària en els darrers 15 anys.

I què ha passat?
Doncs, que quan hi ha una clàusula abusiva en el nostre contracte vol dir que està present en cents de milers de contractes i això provoca una cascada de demandes que és el que hem vist en els darrers anys.

I així estan de col·lapsats els jutjats, amb les reclamacions de les clàusules sòl, a les companyies aèries...
Sí, i la pregunta seria i com ho gestionem? Els contractes són els mateixos, però davant l’allau s’han creat jutjats especialitzats per atendre’ls, i jutges fent 80 i 100 casos a la setmana. Això és insostenible.

L'advocada Artigot, en el pati interior de la Facultat de Dret de la UPF / Foto: Montse Giralt

I què cal fer?
Des del punt de vista judicial, aquesta feina és insuportable. I des d’un punt de vista constitucional, de drets fonamentals, nosaltres tenim drets en aquests moments a que hi hagi una decisió individualitzada del nostre cas. I com arribem a l’equilibri? El desconec. S’ha de decidir de forma individualitzada i com si cada cas fos únic? Provablement, la resposta és que no. Ara, com garantim o reconciliem que aquests sistemes automatitzats poden donar suport al jutges perquè els despatxos ja l’estan utilitzant perquè les demandes dels consumidors són gairebé les mateixes perquè tenen els mateixos contractes? Com reconciliem això amb garanties de drets fonamentals, des del dret a la tutela judicial efectiva a la individualització de la solució? En aquest cas són diners, inversió, i sobretot està en l’àmbit civil i mercantil.

Com reconciliem l'ús de sistemes automatitzats amb les garanties de drets fonamentals?

Les empreses dominen al consumidor? 
Les empreses privades i les plataformes, per exemple les que venen vols aeris, no només utilitzen sistemes d’intel·ligència artificial sinó que a més a més, ens coneixen, i poden diferenciar el preu del vol a dues persones diferents. I per això, també estudiem quines implicacions econòmiques i normatives tenen a efectes no només de justícia, sinó a nivell del consumidor. Això és nou. Una cosa és que negociem un contracte individualitzat en un mercat d’encants, però quan això ho fas a nivell globalitzat, amb base de dades personals, això canvia.

I les administracions públiques?
També té dades nostres. Des de la nostra salut, on vivim, si tenim deutes amb Hisenda, si reben ajudes, si tenim dret al bo de l’electricitat... Per exemple, en el cas del bo d’electricitat ara està judicialitzat perquè la plataforma Civio va demanar saber quina selecció feia l’administració  per concedir o no aquest bo ja que veia que veïns  amb necessitats eren exclosos. Al final, com el sistema va ser confeccionat per una empresa privada, la justícia ha donat la raó a l’administració.  Llavors, té sentit que les administracions usin aquests sistemes? Provablement la resposta és sí perquè ja que tenim tota aquesta informació cal fer un ús per la millor eficiència de l’administració per tal que els recursos vagin a qui ho necessita.

Llavors, quina és la pega?
El problema és que tota aquesta informació es pot utilitzar per controlar la població, per deixar-nos indefensos de saber com es prenen aquestes decisions, per vulnerar els nostres drets fonamentals amb casos que hi ha discriminació. I per això tenim dos reptes: conèixer com es prenen aquestes decisions i també presentar al·legacions contra aquestes decisions. I en aquests moments tenim el gran problema de les caixes negres i no només de la transparència administrativa, sinó també com es garanteixen els drets dels ciutadans quan s’utilitzen aquests tipus de sistemes que desconeixem com estan dissenyats i desconeixem en base a quines variables han pres aquestes decisions. I com ho fem quan això arriba al jutjat. És a dir, el sistema judicial com a enjudiciador de les decisions que han pres tant les empreses privades com les administracions.

Mireia Artigot en un moment de l'entrevista. / Foto: Montse Giralt

El problema és que tota aquesta informació es pot utilitzar per controlar la població, per deixar-nos indefensos 

I  què fan els jutges?
En aquests moments els jutges diuen que no tenen eines ni formació, que van tard i enrere. Tot i que el sector públic ha d’anar més lent que el privat, ha de pensar bé què fa, però s’ha d’actuar.

Han proposat treballar amb l’Administració de Justícia?
Sí, ho hem demanat tant al Ministeri de Justícia com a la Generalitat, i estem en converses per treballar conjuntament i provar alguna eina, que sistematitzi pasos i els ajudi. He d' agrair la disposició de la degana dels jutjats de Barcelona i que hi ha un grup jutges, sobretot de l’àmbit mercantil de Barcelona,que  s’han ofert a treballar amb nosaltres en la recerca. En els expedients judicials hi ha moltes dades personals, i el propietari de les dades, de les sentències, és el Cendoj, el Centre de Documentació Judicial, que tenen la millor base de dades d’Europa i a més a més és pública. Som dels pocs sinó l’únic Estat membre que té una base de dades de recerca de jurisprudència pública que et permet fer una recerca sobre la jurisprudència espanyola absolutament Top. I ara, parlem amb ells per la nostra recerca  sobre els tres eixos: sistema de justícia com a generador de dades, com a usuaris i com a enjudiciadors.

He d'agrair que la degana dels jutjats de Barcelona i  jutges de mercantil s'han ofert a treballar amb nosaltres a la recerca

I què cal fer?
Tots aquests sistemes s’han d’entrenar amb dades, el Ministeri i el Cendoj té aquestes dades, i segur que estan experimentant amb sistemes amb intel·ligència artificial, però abans d’entrenar aquest sistema hem de saber què tenim, si està esbiaixat, si hi ha prejudicis, si hi ha casos que no han funcionat, si hi ha correlació de dades. I en això no me n’he ensortit amb Justícia. No sé si ho fan, i suposo que tenen molta por.

Abans d'entrenar aquest sistema, hem de saber com funciona, si està esbiaixat, si hi ha correlació de dades

L’administració de Justícia té por?
En part ho entenc perquè si ho analitzen tot poden descobrir correlacions o biaixos.

Quins?
Anem al cas ideal, no hi ha biaix, però resulta que descobrim que hi ha una correlació entre el tipus de préstec hipotecari que s’ha ofert a un tipus de deutor, l’entitat bancaria i la jurisdicció. Depèn de com s’explica és molt lleig.

M’he perdut. Què vol dir?
És a dir, que pot ser una pràctica comercial dels bancs, però també pot ser que un determinat perfil de deutor li hagis ofert unes condicions sistemàticament pitjors. Pot ser que hi hagi un jutjat que hagi valorat determinats contractes hipotecaris de forma diferent. També hi ha casos a la policia, per exemple el tribunal constitucional federal alemany va considerar inconstitucionals l'ús de sistemes d'intel.ligència artificial utilitzats a Hesse i a Hamburg amb la interpretació de dades sobre criminalitat i que afectava a certs ciutadans. Això vulnera el principi d’igualtat i el principi d’innocència.

I què hem de fer?
Els prejudicis personals els coneixem i sabem que existeixen. Però, actualment hi ha sistemes que de manera  sistèmica i general poden aplicar aquests prejudicis amb un número infinit de persones sense que nosaltres sapiguem com es fa. En aquests moments, no sabem si els sistemes existeixen i no sabem si es fa i no sabem com es fa. I cada cop que ens trobem en un cas d’aquests és molta feina. Moltes ONG tenen moltíssims problemes per saber si aquests sistemes existeixen, com estan dissenyats, i com prenen decisions. Per això hem de treballar de forma interdisciplinar, i hem de treballar amb enginyers i enginyeres que ens expliquin com es dissenyen les eines d’intel·ligència artificial, i ja no parlem de la intel·ligència artificial generativa!, que llavors ja entrem a una altra dimensió. És a dir, entrem les dades, t’ho codifiquen, però no hi ha una aplicació sistemàtica perquè aquests sistemes aprenen, es desenvolupen, evolucionen. És a dir, entre el que tu vas dissenyar inicialment i el que el sistema ha après, no saps tot el que fa el sistema.

Hem de treballar amb enginyers que ens expliquin com es dissenyen les eines d'intel·ligència artificial

La intel·ligència artificial ha canviat com impartir justícia?
Estic convençuda que la intel·ligència artificial representa i representarà una disrupció sobre el concepte de justícia i com l’hem entès en els últims 200 anys, tant a nivell del concepte com del poder de l’Estat com de l’articulació institucional.

Tot sembla que va a pitjor del ciutadà...
En aquests moments vivim una situació d’incertesa i de perill del que representen aquestes eines. Però també és inevitable: podem pensar que la societat i en el món que vivim, on agents privats usen aquestes eines, però nosaltres farem les mateixes anàlisi i els jutges enjudiciaran igual? Actualment, és tècnicament massa complexe. I l’excepció i la individualització dels casos sempre ha d’existir.

Al final, tindrem sentències fetes integrament per màquines? 
Segurament, sí. És com dir ara que els jutges no poden usar ordinadors i han de fer les sentències a mà. Les preguntes són: quins mecanismes articularem per assegurar-nos que tenim el mateix dret a saber la base de la decisió i que tinc respectats els meus drets processals com fonamentals en relació a aquesta sentència automatitzada? I la segona pregunta: Amb tots aquests sistemes, i no només a l’àmbit de la justícia, tindrem dret a la intervenció humana en algun moment? I això és una pregunta que la tenim tant per a l’Agència Tributària, com a l’àmbit hospitalari com a l’àmbit judicial o d’educació.

Tindrem dret a la intervenció humana, que revisi aquests sistemes? I no només en l'àmbit de la justícia, sinó en hospitalari o educatiu

Déu n’hi do
Hem de reflexionar, però vull donar optimisme en certs casos. Per exemple, el jutge ha de poder consultar les bases dades d’Aena per saber si realment va haver un retard d’un vol, perquè les plataformes ja ho fan. En l’àmbit penal, és una altra dimensió.

La privacitat és poder. I ho hem de parlar i explicar a l'escola

Què ens aconsella?
Els mòbils, les tauletes, els rellotges...Hem de saber que aquests sistemes beuen de les nostres dades i aprenen d’elles, tant a nivell públic com el privat. Són dades que ens col·loquen en un nínxol de mercat. Per això, insisteixo molt que hem de parlar i ha de començar a l’escola perquè la privacitat és poder. Què cadascú que faci el que vulgui però hem de saber què es fa amb les nostres dades. Insisteixo que ens cal un debat urgent i que ha de ser realista.

La investigadora Mireia Artigot, a l'edifici de la UPF Ciutadella / Foto: Montse Giralt