Recientes cambios en la estrategia de desarrollo de IA en Estados Unidos han encendido las alarmas en la comunidad internacional. La administración Trump, a través del Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés), ha difundido nuevos lineamientos para los científicos vinculados con el Instituto de Seguridad de la Inteligencia Artificial (AISI, por sus siglas en inglés). En lo principal, eliminan la mención de términos como "IA responsable", "seguridad de la IA" e "imparcialidad de la IA". Asimismo, se suprime la construcción de herramientas tendientes a la verificación de contenidos y el rastreo de su procedencia, como así también el etiquetado de contenidos sintéticos.
¿El objetivo? Reducir el "sesgo ideológico"
Promover y garantizar la competitividad económica del país. Esto va en línea con otras medidas tomadas como la derogación de la orden ejecutiva de Biden sobre seguridad y transparencia de la inteligencia artificial. Está clara la influencia de Elon Musk en su decisión y su liderazgo en el Departamento de Eficiencia Gubernamental (DOGE). Musk ha sido un fuerte crítico de los modelos de IA desarrollados por empresas como OpenAI y Google, acusándolos de ser "woke" o sesgados políticamente. La respuesta ahora es contundente: la administración ha optado por modificar la orientación de la investigación en IA, dejando de lado preocupaciones sobre discriminación y seguridad en favor de una narrativa que prioriza la competitividad estadounidense.
¿Qué representa esto en la práctica? Este giro no es menor: implica un cambio de rumbo en la gobernanza de la IA que puede tener repercusiones globales, debilitando la protección contra sesgos algorítmicos y reduciendo la transparencia en el uso de estos sistemas. Existen dos consecuencias casi palpables. Por un lado, un aumento considerable a la amenaza de manipulación e interferencia de información extranjera (FIMI, por sus siglas en inglés) y la generación de escenarios propicios para la desinformación (por ejemplo, las deepfakes). Ambas temáticas, son sumamente preocupantes para los gobiernos y organismos internacionales y ocupan un punto importante en la geopolítica global. Por el otro, un aumento considerable de las brechas sociales, ya que serán los mismos de siempre los excluidos de la realidad de los algoritmos: el sur global y los colectivos vulnerables y minoritarios.
Los sesgos y su posible supresión
Entre las acepciones a término “sesgo” propuestas por la RAE, encontramos “error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”. Los psicólogos Kahneman y Tversky introdujeron en 1972 el concepto de sesgo cognitivo como una interpretación errónea sistemática de la información existente que influye en la forma que tomamos decisiones, que pensamos, y hacemos juicios de valor.
Nuestros valores, sesgos y preconceptos nos acompañan, guían y orientan en cada paso que damos en la vida. Cada decisión, creación, tarea que llevamos adelante está impregnada de nuestro “perfil ético”. Si bien en muchos casos la imparcialidad es un objetivo loable a alcanzar, por ejemplo, la de un juez al dictar una sentencia, lo cierto es que es un objetivo falaz, ya que es imposible quitarnos la mochila de valores y prejuicios que tenemos dentro.
Entonces, estos sesgos, con una indiscutible carga negativa en muchos casos, están presentes en todo lo que hacemos y resulta casi imposible evadirlos. Así, estos, en sus distintas vertientes (ideológicos, de confirmación, etc.), son trasladados a la tecnología y replicados por esta.
Ya hemos conversado en este espacio acerca de los sesgos algorítmicos, es decir, la transferencia de los valores humanos en los sistemas de inteligencia artificial y como esta los exacerba y replica. Hemos compartido también muchos ejemplos en la contratación laboral, la gestión de contenidos en redes sociales y los contenidos que nos evidencia la IA generativa en la mayoría de los casos con sesgos algorítmicos de género y raciales.
¿Hacia un futuro sin gobernanza ética?
El panorama actual nos enfrenta a una pregunta urgente: ¿puede la IA desarrollarse de manera justa sin una gobernanza ética clara? La respuesta parece ser no. La IA no es neutral; es un reflejo de los valores que se le imprimen en su diseño y aplicación. Sin regulaciones adecuadas, las grandes corporaciones y gobiernos pueden moldear estos sistemas a su conveniencia, dejando de lado principios fundamentales como la equidad, la transparencia y la seguridad. Eliminar el sesgo ideológico es una falacia que no se puede aplicar en la práctica, ya que cualquier creación, diseño o proceso que llevemos a cabo tendrá impregnada nuestra ideología. La decisión radica en determinar qué horizonte queremos alcanzar en el desarrollo de la tecnología.