El uso de herramientas de inteligencia artificial (IA) cada vez más sofisticadas se impone en el día a día con la fuerza de un tsunami y, lo peor, que coge la población sin herramientas para gestionar o identificar esta tecnología. En otras palabras, sin defensas. Cuando unos meses atrás se viralizaban imágenes creadas con IA que eran tan realistas que confundían los ojos más expertos, ya se planteaba el peligro del uso de esta tecnología para difundir noticias falsas o hacer propaganda. Poco después nos encontramos ante el conflicto de Israel y Hamás, donde herramientas de fácil acceso d'IA están al alcance de todo el mundo para sumarse a la cruzada de las noticias falsas y la propaganda con imágenes y vídeos completamente realistas.
El caso más conocido de acusaciones cruzadas de utilizar IA para crear imágenes del conflicto es en lo referente a las imágenes de bebés calcinados por el ataque de los milicianos de Hamás. Para empezar, el ruido mediático en torno a este caso empieza desde el minuto cero. La acusación que Hamás había decapitado a cuarenta niños en un kibutz, acabó siendo matizada por el canal local que la difundió en directo en un inicio. Sin embargo, no quiere decir que no hubiera niños y bebés víctimas del ataque de los milicianos islamistas. Pero de decapitaciones, se pasó a acusar que los terroristas habían calcinado a las criaturas, difundiendo imágenes el mismo primer ministro de Israel, Benjamin Netanyahu, y con las afirmaciones de Joe Biden. Por otra parte, un comentarista político estadounidense pasó las imágenes por un sitio web para distinguir si están generadas por IA con el veredicto de que sí que lo estaban. La conclusión no hizo más que echar más leña al fuego: ¿Ha sucedido? ¿Realmente ha sucedido? ¿Quién lo difunde y por qué?
La eficacia de la IA, un peligro para las noticias
Este caso no es más que un ejemplo sobre como operan las imágenes generadas con IA. Sean fotografías o vídeos, algunas pueden ser muy realistas, tanto que no las sabemos distinguir. Es decir, se pueden utilizar para crear todo tipo de imágenes para fines propagandísticos muy eficaces. ¿Se puede escapar del yugo de las trampas propagandísticas de imágenes creadas con IA? La web AI or Not (IA o no, en español) analiza las imágenes que se cargan para determinar si las son de procedencia humana o creadas con una IA. Así como identifica si se han creado con algunos de los programas más conocidos. El índice de acierto es bastante alto, aunque no es infalible.
En una entrevista para ElNacional.cat, Ismael Peña López, director de la Escuela de Administración Pública de Catalunya y profesor de la UOC en excedencia, experto en tecnología y sociedad de la información, advirtió hace unos meses de que: "La inteligencia artificial será absolutamente indistinguible para las personas. No nos pasará eso de qué si miramos el píxel averiguamos si hay Photoshop o no. O tenemos otra IA que nos ayuda a averiguar los patrones que hay escondidos detrás de este producto o seremos incapaces de distinguirlo". Una IA para reconocer otra IA, un concepto que puede parecer una paradoja, pero que ya existe.
¿A quién creerás, en tus ojos o a otro programa?
Tener que recurrir a una tecnología para intentar certificar (sin seguridad que sea posible) si unas imágenes son reales o artificiales, deja en una posición vulnerable. Además, se crea un nuevo argumento para invalidar imágenes y vídeos que pueden ser reales. Se deja caer sobre la mesa la carta de "eso está hecho con inteligencia artificial". Se trata de un argumento difícil de rebatir: ¿se confía en un algoritmo para que de forma veraz señale otro algoritmo o tenemos que confiar en nuestros ojos? Volvemos al caso de los niños asesinados en el kibutz, por una parte, un algoritmo apunta que las imágenes pueden estar hechas con IA, por otra, un gobierno las difunde como reales. Por desgracia, en cuánto se cierne la sombra de la duda, ya no importa la respuesta, la discusión se centra en eso y las dos opciones son cómodas para alguno de los bandos.
Para responder activamente, ante la duda con algún tipo de imagen, Peña anima a utilizar el contexto para distinguir su veracidad. Eso podría ser útil cuando se viralizaron las fotografías falsas del Papa hechas con IA, en pleno conflicto bélico, donde la información y la desinformación son un frente más, marcado por la inmediatez, distinguir el contexto se complica mucho.
La IA es una herramienta, las redes, una plataforma de dispersión
"No nos tenemos que centrar en la tecnología sino en el uso que hacemos de ella y en sus creadores, concretamente, en qué estaban y que obviaron cuando la crearon", exponían a este medio hace meses el colectivo milenial que investiga comunidades en las redes y nuevas formas de comunicación política, Proyecto Una. La IA no es en sí negativa, tiene usos muy beneficiosos en algunos ámbitos. Sin embargo, depende de cómo se utilice. A la cruzada para prevenir la desinformación hay un actor muy importante aparte de las IA: las redes sociales.
La Unión Europa ha cumplido con sus amenazas sobre las redes de Meta (Facebook e Instagram) y Twitter (X). En estas plataformas se les notificó que en el marco del contenido relacionado con el conflicto Israel-Hamás se estaba desinformando y propagando contenido "terrorista". Después de un plazo de 24 horas para revertir la situación. Ante la inacción se ha abierto una investigación. A Twitter, concretamente, se lo investiga para distinguir qué medidas ha tomado para la mitigación de los riesgos relacionados con la "diseminación de contenido ilegal, desinformación, violencia de género y los efectos negativos en el ejercicio de los derechos fundamentales, derechos de los niños, seguridad pública y bienestar mental". Se tiene la sospecha que no las suficientes, incumpliendo así la ley europea.