La sofisticación de las herramientas de inteligencia artificial (IA) capaces de generar imágenes abren nuevos escenarios donde las imágenes que nos parecen reales solo son una ilusión generada bajo las órdenes de alguien. Últimamente, se han multiplicado los casos donde una imagen artificial, muy verosímil, ha conseguido convencer a muchas personas de hechos de que no han pasado. Por ejemplo, el Papa con un abrigo muy moderno paseando por la calle o el arresto a la fuerza de Donald Trump. Ninguna de estas cosas ha pasado; sin embargo, mucha gente pensó que si por el buen trabajo que había hecho la IA al crear estas falsas fotografías. El rápido desarrollo de esta tecnología puede cambiar nuestra percepción de lo que vemos en internet y dejar atrás el dicho: una imagen vale más que mil palabras.

¿Es esta persona real o lo ha creado una inteligencia artificial? No es una pregunta que tengamos que prever que nos haremos en el futuro, sino que es algo que ya nos estamos planteando. Desde imágenes que muestran personas reales en situaciones que no han vivido nunca, hasta personas reales que, por su aspecto o tipo de presencia online, los usuarios ponen en duda que sean reales. Todo rodea la experiencia de navegar por internet de una membrana de reticencia hacia los otros usuarios y contenido: ¿es nada de esto real?

"La IA lo cambia absolutamente todo", advierte Ismael Peña López, director de la Escuela de Administración Pública de Catalunya y profesor de la UOC en excedencia experto en tecnología y sociedad de la información. "Todo el mundo puede crear contenido de altísima calidad aparente o formal, sin saber qué hay detrás: ¿quién ha generado? ¿Cómo lo ha generado? ¿Es una opinión veraz?", explica, quién apunta que el principal problema en muchos casos lo que genera la inteligencia artificial es extremadamente verosímil, por lo cual no dudamos a verlo.

¿Cómo podemos distinguir las imágenes generadas por IA?

Con las imágenes de inteligencia artificial que corren actualmente por internet hay ciertos aspectos que nos ayudan a descifrar que han sido generadas por un programa. Por más que de lejos la imagen tenga aspecto de ser completamente real, hay puntos débiles que esta tecnología no ha descifrado todavía y mantienen aspecto de artificialidad. Por una parte, aspectos del cuerpo humano: demasiados dedos o demasiados dientes. Al principio de este año unas imágenes generadas con IA de unas chicas en una fiesta consiguieron que mucha gente confiara en su veracidad. A primera vista atrás fotos que parecían hechas con cámaras analógicas una noche de fiesta. Sin embargo, algunos usuarios encontraban algo perturbador en las imágenes sin distinguir en un primer momento. Aunque si paramos un segundo y las miramos en detalle, veremos que las protagonistas tienen muchísimos dientes y muchos dedos.

Este error de la IA que la hizo es muy recurrente, en el caso de la fotografía del Papa con un abrigo que parecía de alta costura fueron los dedos los que sacaron a los usuarios de la duda. En el caso de este último ejemplo, la calidad de la recreación era muy buena. Pero las manos no mienten: son unos de los puntos débiles de la IA. Otro detalle que esta tecnología no controla son las articulaciones humanas. Imágenes con posiciones imposibles y cuerpos en un movimiento artificioso.

Finalmente, los programas de generación de imágenes basados en la IA se quedan muy cortos generando fuentes. Podemos identificarlos por cómo de difuminados están o cómo contienen muy pocos detalles o, los que tienen, están mal hechos. Tanto por la mala representación de articulaciones como por malos fondos sirven de ejemplo las imágenes creadas para representar una detención violenta de Donald Trump.

El futuro: hará falta ayuda para distinguir la IA

Ahora bien, ¿qué nos espera cuando esta tecnología que crece de forma descontrolada siga avanzando? Seguiremos aferrándonos a detalles para descifrar la veracidad de una imagen. Peña afirma que no será posible: "La inteligencia artificial será absolutamente indistinguible para las personas. No se pasará eso de qué si miramos el píxel averiguamos si hay Photoshop o no. O tenemos otra IA que nos ayuda a averiguar los patrones que hay escondidos detrás de este producto o seremos incapaces de distinguirlo". Una IA para reconocer otra IA, un concepto que puede parecer una paradoja, pero que ya empieza a existir.

La web AI or Not (IA o no, en catalán) analiza las imágenes que se cargan para determinar si las son de procedencia humana o creadas con una IA. Así como identifica si se ha hecho algunos de los programas más conocidos. El índice de acierto es bastante alto, aunque no es infalible. Por ejemplo, hemos probado si puede catalogar correctamente algunas de las imágenes que hemos puesto de ejemplo en este artículo con bastante éxito y una excepción: la imagen falsa del Papa. La web prefiere no mojarse y afirma que no puede determinar si su origen es humano o artificial, además de recomendar encontrar una fuente más definida.

Soy una persona real

Todo nos lleva a una situación como mínimo curiosa: se duda de la existencia de personas reales y se cree en las que no existen. No es una hipérbole, es un hecho que afrontan algunos creadores de contenidos o usuarios de las redes. Por su aspecto o el estilo de su contenido. Uno de los ejemplos más conocidos en internet es el caso de la joven creadora de contenido Danisha Carter. Su presencia, principalmente en TikTok, está muy relacionada con la crítica política, larga, analítica y pausada. Pero todo eso a menudo ha quedado en segundo plano, cuando en la sección de contenidos los usuarios de la plataforma discutían si ella era en realidad una imagen generada por IA.

"Tengo una estética muy cuidada y específica", explica Carter en una entrevista a The Verge apuntando algunos de los aspectos por los cuales se dudaba de su existencia. La creadora tiene un estilo muy marcado: planos cortos de su cara, tono de voces suave, mirada fija y ojos clavados en la cámara. Pero aunque el estatismo de su contenido pueda confundir, Carter es una persona real. Una mujer de carne y hueso que justifica su existencia en un internet donde realmente hay usuarios creados artificialmente, como, por ejemplo, la instagramer Lil Miquela.

¿Un futuro demostrando nuestra humanidad?

No todo el mundo se encuentra en una situación tan extrema como Carter, pero quién más quién menos ya se ha encontrado en Internet justificando su humanidad, cuando menos delante de un CAPTCHA, aquellos mecanismos que nos hacen preguntas sobre letras o imágenes porque demostramos una única cosa: "No soy un robot". O por exclusión, soy humano.

Esta prueba de humanidad coge un nuevo sentido con el auge de las tecnologías que pueden suplantar personas o realidades de forma tan verosímil. ¿Quién me sigue es un bot? ¿Si no demuestro ser una persona podré acceder a esta web? ¿Cómo lo demuestro? Así pues, ¿nos encaminamos hacia un futuro en que tenemos que probar constantemente ser humanos? "Es probable", responde Peña, quien añade: "En vez de ir con un DNI, por así decirlo, sí que tendremos que estar mucho más seguros de las relaciones sociales en internet son con gente real. Tendremos que hacer un esfuerzo extra. Eso nos complicará la vida, mucho, pero creo que es lo que nos ha tocado vivir".

Peña señala que hay estrategias que se pueden adoptar con tal de esquivar la duda sobre nuestra existencia. Principalmente, hay que trabajar mucho en nuestro rastro a internet. Peña lo ejemplariza con el caso de un político: "Un político que sale un vídeo donde está dando unas declaraciones racistas o machistas. Si esta persona no ha dejado constancia anteriormente de su posicionamiento en estos temas, será muy difícil para él decir que no es él quien lo dice". Pues haría falta que dejas claras sus posturas, sin ambigüedades, para restar verosimilitud a posibles inversiones. "Como técnicamente nos será muy difícil averiguar la veracidad, lo que haremos será analizar el contexto. ¿Lo que está pasando aquí está conectado a lo que sé de esta persona o es una seta?", remarca. Sin embargo, por ahora no se augura ninguna técnica infalible.