Uno de los retos mayores que tiene la inteligencia artificial es aplicar la ética en sus acciones. Pero la gran pregunta es, ¿cómo conseguir esto si en el mundo real es todavía muy difícil? Nuestra colaboradora Cecilia Celeste Danesi es una experta en todo ello. Ya impulsó una formación universitaria en el año 2018, cuando la IA todavía no sabíamos, para muchos qué era. Aunque confiesa que fue en el 2015, en Girona, donde empezó el "matrimonio" con esta tecnología. Sus artículos en ON-IA son toda una referencia para el sector y aprovechamos su viaje a Barcelona para charlar con ella.

Nuevo libro

El próximo 12 de febrero, Cecilia Celeste Danesi presenta su último libro “Derechos del consumidor en la encrucijada de la inteligencia artificial: la necesaria reforma de la Directiva de productos defectuosos”, a partir de las 19h en el Espacio Dykinson, Calle de Gaztambide 21, Madrid, España. Librerías - Editorial Dykinson Luis Miguel Tigeras Sierra. Aprovechamos el plató de ON-IA para conocer más su perfil y qué retos tiene la IA. Cecilia es un auténtico libro abierto: abogada, escritora, conferencista, profesora e investigadora en Inteligencia Artificial, géneros y derechos. Le apasiona la innovación y la tecnología y sobre todo su impacto social.  Hizo la carrera de Derecho en la UBA y trabajó más de 10 años en el Poder Judicial. Actualmente, compagina su día a día con ser una de las voces que asesoran organismos de la talla de la UNESCO o la Unión Europea.

"Los algoritmos son neutrales"

En esta entrevista nos da diferentes reflexiones que invitan a tener una visión más amplia de la IA. Para Danesi, hablar de ética en la IA pasa por "no hablar de prohibiciones. El planteamiento debe ser: ¿Cómo la podemos incorporar de manera inclusiva? De manera que respete a las minorías, a las personas, a los colectivos vulnerables. Los sistemas de inteligencia artificial tienen lo que se conoce, hemos hablado de esto, creo que en de las primeras columnas sobre los sesgos algorítmicos o fallas que tienen los sistemas de inteligencia artificial, que muchas veces son hasta imperceptibles para el ojo humano". Y nos da alguna receta para diferenciar los sesgos o prejuicios que en la IA también existen: "Son muy difícil detectarlos, pero no imposible. Uno de los temas en los que yo estoy trabajando ahora, que presentamos un policy brief, que es como un documento de recomendaciones para el G20, es acerca de las auditorías algorítmicas. Con esto también trabajamos para la Unesco desde el grupo Women Forestical in AI". Y añade: "No vamos a pretender tener una IA perfecta, eso no existe. Pero debemos tratar de evitar ciertos usos o predicciones o resultados que perjudican y discriminan".

La ética pasa por entender que el usuario de esta IA, a la vez, también es dueño de ella y responsable. "Cuando doy una charla, pido que levante la mano quién alguna vez entrenó un algoritmo. Entonces, claro, si no estás en un ámbito de programación así, todos se quedan sin una respuesta concreta. Pero debemos saber que, entre todos, contribuimos a entrenar los algoritmos. En las redes sociales, cuando ponemos me gusta, interactuamos con una publicación, ya por el tiempo que estamos viendo una publicación le estamos enseñando qué nos gusta y qué no. Cuando usamos ChatGPT, también vos le vas enseñando al sistema lo que quiere, lo que está bien, lo que está mal. Entonces, todos de alguna manera entrenamos algoritmos. Eso marca nuestro perfil como sociedad". Y concluye en este sentido: "Primero hay una responsabilidad nuestra y una concientización de qué es lo que estamos haciendo cada vez que interactuamos con un algoritmo".

IMG 4617
Cecilia Danesi entrevistada por Núria Casas

Por todo ello, define los algoritmos como piezas neutrales que donde la "parcialidad se la damos nosotros, desde el que los desarrolla, el que elige los datos con los cuales se va a entrenar, el que lo entrena, el que todo, y luego los usuarios. Con lo cual, la falta de imparcialidad es producto de la interacción con el humano. Si queremos que sea ético o no, depende del uso que le demos. Siempre pongo un ejemplo, la energía nuclear es buena o mala dependiendo de cómo la usemos".

El camino de la IA que dibuja Cecilia es hacia una hiperpersonalización. "Hoy tenemos ChatGPT, todos estos modelos, lenguaje. Bueno, en el futuro cada uno va a tener como un ChatGPT a su imagen y semejanza y a su gusto. En el sentido que, como que va cada vez va a poder aprender más nuestros gustos, nos podrá dar respuestas más adecuadas a nuestro perfil". En este sentido, nuestra entrevistada alerta del filtro burbuja o visión de túnel, que es que cada vez vamos a estar más ensimismados en nuestras creencias y nuestros pensamientos.

La IA aflora el concepto de neuroderecho

Otro concepto que Danesi nos avanza es el concepto de neuroderechos, que son esta nueva generación de derechos humanos que lo que hacen es buscar, proteger la indemnidad del cerebro humano frente al avance de las tecnologías. "Son una nueva generación de derechos humanos basados en generaciones de primera, segunda, tercera... A medida que va evolucionando la sociedad, vamos como teniendo más derechos humanos reconocidos porque en realidad se considera es algo innato de las personas, los neuroderechos son derechos que buscan proteger la indemnidad cerebral, nuestro cerebro, del avance de las neurotecnologías".

"Los docentes se deben replantear los métodos"

En clave de actualidad, Cecilia Celeste Danesi acaba con una reflexión sobre el uso de la tecnología en el ámbito educativo. En Catalunya, se quiere prohibir los móviles en toda la educación obligatoria, incluye también la secundaria, pero ¿qué medidas son realmente efectivas? "Para mí el debate está en el desafío que esto le genera al docente. Hoy, con ChatGPT, con las redes sociales, con las plataformas digitales y con toda esta revolución, los métodos de hace diez años no funcionan. Nadie va a aprender y a nadie le va a interesar aprender de la manera estática, tal vez, que se estudiaba antes, Entonces, los primeros que nos tenemos que sentar en el banquillo de los acusados somos, perdón la palabra, me sale la jurista, somos los docentes". I concluye: "Yo le digo a un alumno que si me quiere engañar, me tiene que saber engañar bien, porque yo sé que ustedes van a usar ChatGPT. Sépanlo usar bien, porque si no lo sabéis usar bien, significa que no aprendiste nada. Y después hay otra cosa que es, bueno, ChatGPT se equivoca muchas veces. Deberás saber manejarte en medio de un campo de minas mucho mayor que antes".