El paso del tiempo trajo muchas alegrías a quienes defendemos una inteligencia artificial ética y eficientemente regulada. Primero, con la llegada de ChatGPT en noviembre de 2022, que no solo nos demostró de todo lo que es capaz la IA, sino que logró su popularización y que el tema pasara a ocupar las charlas de café y las paellas y los asados de los domingos. Si bien ya era usada, se incrementó la conciencia de dicho uso.
El precedente europeo
El segundo gran hito fue en marzo de este año con la aprobación del Reglamento de inteligencia artificial. No fue magia. La Unión Europea venía trabajando en ello desde hace años. El famoso “efecto Bruselas” volvió a acaecer. A los pocos días, muchos estados del mundo avanzaron con sus propuestas de regulación. Uno de sus resultados más papables es el giro del sector privado. Antes era —lógicamente— reticente a la regulación, ahora hace lobby para intentar que los marcos regulatorios globales sean lo más armónicos posible. Esto es, sin duda, un beneficio principalmente para todos, opera como elemento clave para combatir a los monopolios. Una pequeña o mediana empresa desarrolladora de IA que pretende exportar sus servicios carece de un robusto equipo legal que pueda adaptarse fácilmente a las disímiles regulaciones de cada país.
Vivimos en el imperio de imperceptibles algoritmos desde mucho antes de noviembre de 2022. Además de influenciar y de manipular nuestro comportamiento, toman importantísimas decisiones sobre el futuro de las personas, por ejemplo, determinan si podemos acceder a la universidad, si quedamos fuera de un trabajo ponderando nuestras emociones o CV, o si somos candidatos para obtener un crédito.
Pros y contras
El problema principal (desde ya no el único) son los sesgos algorítmicos, un término que parece complicado pero que comprenderlo es tan sencillo como aprender a sumar dos más dos. La solución, tristemente, no corre la misma suerte. La inteligencia artificial se nutre de datos, y si estos no son representativos o no reflejan diversidad (género, raza, religión, etc.), sus respuestas estarán también sesgadas (desde ya que no desconocemos que existen otras causas de sesgos algorítmicos). Entonces, el quid de la cuestión radica en transferir los valores humanos y, más precisamente, nuestro perfil social, en la tecnología. Ejemplos, lamentablemente, nos sobran. Desde el famosísimo caso del algoritmo que puntuaba currículums de aspirantes a puestos de trabajo y que daba una puntuación inferior a mujeres frente a hombres con iguales antecedentes profesionales, hasta los más actuales que nos regala la IA generativa. Por ejemplo, si le pedimos a esta que nos cree una imagen de una “persona de negocios”, muy probablemente nos arrojará un hombre blanco, y si el prompt está vinculado a términos como “asistente”, “recepcionista” o “sensible”, aparecerá una mujer.
El papel de la gobernanza
¿Cuál es el resultado? El refuerzo de los estereotipos y la agudización de las brechas sociales. Los colectivos vulnerables y minoritarios están cada vez más marginados y estigmatizados. Son invisibles —también— a los algoritmos. ¿Cuál es la solución? La gobernanza ética de la inteligencia artificial. La gobernanza consiste en el modo o la forma en que se organizan las instituciones al más alto nivel, es una especie de paraguas que cubre a la organización en su conjunto. Al igual que con las cuestiones de género y diversidad, no son sectoriales, son transversales.
Así, un esquema de gobernanza ética reside en un plan de acción que busque la incorporación de la IA de manera ética, es decir, que la IA se convierta en una aliada para las instituciones. Aprovecharnos de sus beneficios, pero al mismo tiempo asegurándonos que será una herramienta de inclusión. Vivimos en la era donde la IA es una tendencia cool y, en el afán por estar a la moda, incorporamos IA “hasta en la sopa”, lo cual puede traernos fácilmente un resultado no deseado. No tomamos un cohete para llegar a la esquina, del mismo modo que no debemos incorporar IA en cualquier cosa; la esencia y la sensibilidad humanas son irremplazables en muchas ocasiones.
La gobernanza ética de la IA nos propone un abordaje transdisciplinario donde las ciencias sociales (todas, desde lingüistas, juristas, periodistas, psicólogos, sociólogos, etc., tienen un rol importantísimo). También aborda distintas áreas, como la educación, la industria, la manufactura, la regulación, la comunicación, entre otras. Un punto relevante son las auditorías algorítmicas y las evaluaciones de impacto, que consisten en examinar algoritmos de alto riesgo para detectar sesgos y fallas. El Reglamento de IA de la Unión Europea y la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) van también en sintonía con la evaluación de determinados sistemas.
Casos como el de Almendralejo (donde niños crearon fotos de sus compañeras desnudas con IA generativa) nos enseñan que el problema es por demás complejo y por sobre todo, no se agota en una sola área. Sin saberlo, entrenamos algoritmos cada día cuando usamos ChatGPT o interactuamos en las redes sociales. Todos somos parte del problema, pero, por suerte, también de la solución. Queda en nosotros decidir si queremos ignorar el elefante en la habitación o tomar cartas en el asunto.