Mireia Artigot Golobardes, abogada e investigadora Ramon y Cajal en la Facultad de Derecho de la Universidad Pompeu Fabra (UPF), lidera con la UPF una investigación a nivel europeo sobre el uso de la inteligencia artificial en el ámbito de la justicia, donde participan unos 50 investigadores y 32 jueces, además de otros miembros, que harán reuniones de trabajo en Nápoles, París y Barcelona en el 2025. De su experiencia internacional, Artigot fue law clerk de Edwin H. Stern, juez presidente del Tribunal de Apelación de Nueva Jersey. Explica apasionada su investigación, y al mismo tiempo nos exige, a todos los ciudadanos, que seamos críticos en el uso de las tecnologías, y que luchemos por nuestros derechos ante la irrupción de la inteligencia artificial, y sobre todo la generativa.
¿En qué consiste su investigación?
Soy economista y me dedico al derecho privado, al derecho de contratos y derecho de consumo desde un punto de vista de análisis económico. En los últimos años, el impacto y la disrupción de todo el ámbito digital ha transformado el foco de mi investigación que continúa en temas de consumo, sin embargo, más en contratación en entornos digitales, estructuras normativas y económicas de las plataformas digitales. Y ahora estoy en un proyecto de investigación, que coordinamos desde la Universidad Pompeu Fabra y que lidero, sobre el impacto de la inteligencia artificial en la justicia y como impacta en los derechos fundamentales. Es decir, parte de mi investigación se centra al analizar la irrupción de la inteligencia artificial en el ámbito judicial.
¿Y qué ha visto?
Empezamos el febrero pasado. Y la próxima semana tendremos la primera conferencia en Nápoles, donde trabajaremos el uso de herramientas de decisiones automatizadas en el ámbito de la justicia, básicamente desde tres punto de vista: el sistema judicial como generador de datos; como a usuarios de inteligencia artificial, y como enjudiciadors de decisiones tomadas por parte de agentes públicos o privados con sistemas automatizados o de inteligencia artificial. Es un triple análisis y estamos en un momento de transición muy importante.
¿Ya se usa la inteligencia artificial en la justicia?
Sí. Tenemos conocimiento que grandes despachos de abogados han presentado demandas en los juzgados con el uso de inteligencia artificial. Algunos nos dicen que todavía lo tiene que revisar una persona, pero usan bases de datos y sistemas que los jueces no tienen.
¿Y qué dicen los jueces?
Los jueces lo ven y exponen lo que necesitan, y hoy por hoy no tienen herramientas. En la Administración de Justicia está el expediente digital, pero este no filtra nada: cuando el juez tiene que buscar un dato, lo tiene que hacer manualmente, o moviendo el ratón arriba y abajo de la pantalla del ordenador.
En la Administración de Justicia está el expediente digital, pero este no filtra nada
¿Dónde se usa inteligencia artificial?
Sobre todo en el ámbito de consumo. Cada uno de nosotros hacemos muchas transacciones al día, cada uno es un contrato. Hay otros como es coger un avión, la compra de electrodomésticos, los contrato con telefónicas, tecnológicas...Todos somos consumidores y consumidoras cuando actuamos en el ámbito privado. Todo está regulado, la Unión Europea y los estados tienen una responsabilidad de proporcionar un alto nivel de protección a los consumidores. Pero las empresas redactan estos contratos que no son individuales para cada uno de nosotros, como las facturas. Es lo que ha pasado con toda la litigación hipotecaria en los últimos 15 años.
¿Y qué ha pasado?
Pues, que cuando hay una cláusula abusiva en nuestro contrato quiere decir que está presente en cientos de miles de contratos y eso provoca una cascada de demandas que es lo que hemos visto en los últimos años.
Y así están de colapsados los juzgados, con las reclamaciones de las cláusulas suelo, a las compañías aéreas...
¿Sí, y la pregunta sería y cómo lo gestionamos? Los contratos son los mismos, pero delante de la avalancha se han creado juzgados especializados para atenderlos, y jueces haciendo 80 y 100 casos a la semana. Esto es insostenible.
¿Y qué hay que hacer?
Desde el punto de vista judicial, este trabajo es insoportable. Y desde un punto de vista constitucional, de derechos fundamentales, nosotros tenemos derechos en estos momentos a que haya una decisión individualizada de nuestro caso. ¿Y cómo llegamos al equilibrio? Lo desconozco. ¿Se tiene que decidir de forma individualizada y como si cada caso fuera único? Probablemente, la respuesta es que no. ¿Ahora, cómo garantizamos o reconciliamos que estos sistemas automatizados pueden dar apoyo a jueces porque los despachos ya lo están utilizando porque las demandas de los consumidores son casi las mismas porque tienen los mismos contratos? ¿Cómo reconciliamos eso con garantías de derechos fundamentales, desde el derecho a la tutela judicial efectiva a y la individualización de la solución? En este caso es dinero, inversiones y sobre todo está en el ámbito civil y mercantil.
¿Cómo reconciliamos el uso de sistemas automatizados con las garantías de derechos fundamentales?
¿Las empresas dominan al consumidor?
Las empresas privadas y las plataformas, por ejemplo las que venden vuelos aéreos, no solo utilizan sistemas de inteligencia artificial sino que además, nos conocen, y pueden diferenciar el precio del vuelo a dos personas diferentes. Y por eso, también estudiamos qué implicaciones económicas y normativas tienen a efectos no solo de justicia, sino a nivel del consumidor. Esto es nuevo. Una cosa es que negociamos un contrato individualizado en un mercadillo, pero cuando eso lo haces a nivel globalizado, con base de datos personales, eso cambia.
¿Y las administraciones públicas?
También tiene datos nuestros. Desde nuestra salud, donde vivimos, si tenemos deudas con Hacienda, si reciben ayudas, si tenemos derecho al bono de la electricidad... Por ejemplo, en el caso del bono de electricidad ahora está judicializado porque la plataforma Civio preguntó saber qué selección hacía la administración para conceder o no este bono ya que constató que vecinos con necesidades eran excluidos. Al final, como el sistema fue confeccionado por una empresa privada, la justicia ha dado la razón a la administración. ¿Entonces, tiene sentido que las administraciones usen estos sistemas? Provablement la respuesta es sí porque ya que tenemos toda esta información hay que hacer un uso para la mejor eficiencia de la administración a fin de que los recursos vayan a quien lo necesita.
¿Entonces, cuál es la pega?
El problema es que toda esta información se puede utilizar para controlar la población, para dejarnos indefensos de saber cómo se toman estas decisiones, para vulnerar nuestros derechos fundamentales con casos que hay discriminación. Y por eso tenemos dos retos: conocer como se toman estas decisiones y también presentar alegaciones contra estas decisiones. Y en estos momentos tenemos el gran problema de las cajas negras y no solo de la transparencia administrativa, sino también como se garantizan los derechos de los ciudadanos cuando se utilizan estos tipos de sistemas que desconocemos como están diseñados y desconocemos en base a cuáles variables han tomado estas decisiones. Y cómo lo hacemos cuando eso llega al juzgado. Es decir, el sistema judicial como enjudiciador de las decisiones que han tomado tanto las empresas privadas como las administraciones.
El problema es que toda esta información se puede utilizar para controlar la población, para dejarnos indefensos
¿Y qué hacen los jueces?
En estos momentos los jueces dicen que no tienen herramientas ni formación, que van tarde y atrás. Aunque el sector público tiene que ir más lento que el privado, tiene que pensar bien qué hace, pero se tiene que actuar.
¿Han propuesto trabajar con la Administración de Justicia?
Sí, lo hemos pedido tanto al Ministerio de Justicia como a la Generalitat, y estamos en conversaciones para trabajar conjuntamente y probar alguna herramienta, que sistematice pasos y les ayude. Tengo que agradecer la disposiciòn de la decana de los juzgados de Barcelona y que hay un grupo jueces, sobre todo del ámbito mercantil de Barcelona,que se han ofrecido a trabajar con nosotros en la investigación. En los expedientes judiciales hay muchos datos personales, y el propietario de los datos, de las sentencias, es el Cendoj, el Centro de Documentación Judicial, que tienen la mejor base de datos de Europa y además es pública. Somos de los pocos sino el único Estado miembro que tiene una base de datos de investigación de jurisprudencia pública que te permite hacer una investigación sobre la jurisprudencia española absolutamente Top. Y ahora, hablamos con ellos para nuestra investigación sobre los tres ejes: sistema de justicia como generador de datos, como usuarios y como enjudiciadores.
Tengo que agradecer que la decana de los juzgados de Barcelona y jueces de lo mercantil se han ofrecido a trabajar con nosotros en la investigación
¿Y qué hay que hacer?
Todos estos sistemas se tienen que entrenar con datos, el Ministerio y el Cendoj tiene estos datos, y seguro que estan experimentando con sistemas con inteligencia artificial, pero antes de entrenar este sistema tenemos que saber qué tenemos, si está sesgado, si hay prejuicios, si hay casos que no han funcionado, si hay correlación de datos. Y en eso, creo que no lo he conseguido con Justícia. No sé si lo hacen, y supongo que tienen mucho miedo.
Antes de entrenar este sistema, tenemos que saber cómo funciona, si está sesgado, si hay correlación de datos
¿La administración de Justicia tiene miedo?
En parte lo entiendo porque si lo analizan todo, pueden descubrir correlaciones o sesgos.
¿Cuáles?
Vamos al caso ideal, no hay sesgo, pero resulta que descubramos que hay una correlación entre el tipo de préstamo hipotecario que se ha ofrecido a un tipo de deudor, la entidad bancaria y la jurisdicción. Depende de cómo se explica es muy feo.
Me he perdido. ¿Qué quiere decir?
Es decir, que puede ser una práctica comercial de los bancos, pero también puede ser que un determinado perfil de deudor le hayas ofrecido unas condiciones sistemáticamente peores. Puede ser que haya un juzgado que haya valorado determinados contratos hipotecarios de forma diferente. También hay casos en la policía, por ejemplo el tribunal constitucional federal alemán consideró inconstitucionales el uso de sistemas de inteligencia artificial utilizados en Hesse y en Hamburgo con la interpretación de datos sobre criminalidad y que afectaba a ciertos ciudadanos. Eso vulnera el principio de igualdad y el principio de inocencia.
¿Y qué tenemos que hacer?
Los prejuicios personales los conocemos y sabemos que existen. Sin embargo, actualmente hay sistemas que de manera sistémica y general pueden aplicar estos prejuicios con un número infinito de personas sin que nosotros sepamos cómo se hace. En estos momentos, no sabemos si los sistemas existen y no sabemos si se hace y no sabemos cómo se hace. Y cada vez que nos encontramos en un caso de estos es mucho trabajo. Muchas ONG tienen muchísimos problemas para saber si estos sistemas existen, cómo están diseñados, y cómo toman decisiones. Por eso tenemos que trabajar de forma interdisciplinar, y tenemos que trabajar con ingenieros e ingenieras que nos expliquen cómo se diseñan las herramientas de inteligencia artificial, y ya no hablamos de la inteligencia artificial generativa!, que entonces ya entramos en otra dimensión. Es decir, entramos los datos, te lo codifican, pero no hay una aplicación sistemática porque estos sistemas aprenden, se desarrollan, evolucionan. Es decir, entre lo que tú diseñaste inicialmente y lo que el sistema ha aprendido, no sabes todo lo que hace el sistema.
Tenemos que trabajar con ingenieros que nos expliquen cómo se diseñan las herramientas de inteligencia artificial
¿La inteligencia artificial ha cambiado como impartir justicia?
Estoy convencida de que la inteligencia artificial representa y representará una disrupción sobre el concepto de justicia y como lo hemos entendido en los últimos 200 años, tanto a nivel del concepto como del poder del Estado como de la articulación institucional.
Todo parece que va a peor del ciudadano...
En estos momentos vivimos una situación de incertidumbre y de peligro de lo que representan estas herramientas. Pero también es inevitable: ¿podemos pensar que la sociedad y en el mundo que vivimos, donde agentes privados usan estas herramientas, pero nosotros haremos los mismos análisis y los jueces enjuiciarán igual? Actualmente, es técnicamente demasiado complejo. Y la excepción y la individualización de los casos siempre tiene que existir.
¿Al final, tendremos sentencias hechas integramente por máquinas,?
Seguramente, sí. Es como decir ahora que los jueces no pueden usar ordenadores y tienen que hacer las sentencias a mano. Las preguntas son: ¿Qué mecanismos articularemos para asegurarnos de que tenemos el mismo derecho a saber la base de la decisión y que tengo respetados mis derechos procesales como fundamentales en relación a esta sentencia automatizada? Y la segunda pregunta: ¿Con todos estos sistemas, y no solo en el ámbito de la justicia, tendremos derecho a la intervención humana en algún momento? Y eso es una pregunta que la tenemos tanto para la Agencia Tributaria, como el ámbito hospitalario como el ámbito judicial o de educación.
¿Tendremos derecho a la intervención humana, que revise estos sistemas? Y no solo en el ámbito de la justicia, sino en hospitalario o educativo
Ahí no es nada
Tenemos que reflexionar, pero quiero dar optimismo en ciertos casos. Por ejemplo, el juez tiene que poder consultar las bases datos de Aena para saber si realmente hubo un retraso de un vuelo, porque las plataformas ya lo hacen. Eso también es inteligencia artificial. En el ámbito penal, es otra dimensión.
La privacidad es poder. Y lo tenemos que hablar y explicar en la escuela
¿Qué nos aconseja?
Los móviles, las tabletas, los relojes...Tenemos que saber que estos sistemas beven de nuestros datos y aprenden de ellos, tanto a nivel público como elprivado. Son datos que nos colocan en un nicho de mercado. Por eso, insisto mucho en que tenemos que hablar y tiene que empezar en la escuela porque la privacidad es poder. Qué cada uno que haga lo que quiera pero tenemos que saber qué se hace con nuestros datos. Insisto en que nos hace falta un debate urgente y que tiene que ser realista.