Poco después de la invasión de Ucrania en 2022, fotógrafos locales comenzaron a documentar la destrucción de sitios culturales para ayudar a preservar el patrimonio del país y recopilar pruebas para la restauración. Sin embargo, la propagación de imágenes falsas relacionadas con la guerra estaba causando un problema: la gente empezó a confundir las imágenes reales de las verdaderas. Esto llevó a los fotógrafos a utilizar una nueva herramienta que demostrara que sus imágenes no eran deepfakes, es decir, contenidos generados por IA que parecen personas, lugares o eventos reales, aunque menos realistas. Este prototipo dio lugar al conjunto de herramientas de integridad de contenidos de Microsoft, diseñadas para aportar más transparencia a lo que se publica en internet.
Con la cantidad de procesos electorales que se celebrarán por todo el mundo, que este año se espera que atraigan a un récord de 2 mil millones de votantes, varias organizaciones políticas, electorales y de medios de comunicación están utilizando ahora estas herramientas para poder atribuirse sus trabajos, mejorar la transparencia, generar confianza y prevenir la desinformación. Apoyar un ecosistema de información que aporta más confianza con herramientas y prácticas de IA responsables es solo una de las formas en las que Microsoft está combatiendo los deepfakes.
"Las repercusiones de los deepfakes pueden ser gravísimas. Son una forma de hackeo cognitivo que cambia la relación con la realidad y la manera en que pensamos sobre el mundo", dice Andrew Jenks, director de Procedencia de Medios en Microsoft. Jenks preside la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), una organización que Microsoft cofundó para desarrollar un estándar técnico abierto que permite establecer la procedencia, o el origen y la historia, del contenido digital, incluidos los activos generados por IA. El contenido manipulado no es algo nuevo y, a veces, es claramente una sátira o comedia. Pero el auge de la IA generativa está facilitando que personas con malas intenciones difundan desinformación, la cual puede llevar a fraudes, robos de identidad o interferencia electoral, entre otros peligros. Detalles como la firma o los subtítulos a menudo desaparecen cuando el contenido se comparte, lo que dificulta que las personas sepan en qué confiar.
Debido a que los metadatos son invisibles, Microsoft también ofrece una herramienta pública de verificación de integridad de contenido y una extensión para navegadores web, los cuales permiten a los consumidores escanear credenciales y revisar la procedencia de la información. Las personas también pueden buscar un icono de Credenciales de Contenido en imágenes y vídeos en plataformas como LinkedIn. "Las Credenciales de Contenido proporcionan una capa importante de transparencia, independientemente de si se utilizó IA o no, para ayudar a las personas a tomar decisiones más informadas sobre el contenido que comparten y consumen en internet", señala Jenks. "A medida que se hace más fácil identificar el origen y la historia del contenido, es posible que las personas se vuelvan más escépticas respecto al material que carece de información específica sobre su procedencia".
Microsoft emplea sus herramientas de Credenciales de Contenido en sus propios productos generadores de imágenes mediante IA (Designer, Copilot, Paint y algunos modelos seleccionados de Azure OpenAI Service), con el objetivo de evidenciar que se usó IA cuando se creó la imagen y otros detalles. Otros controles responsables de IA para disuadir sobre el abuso de deepfakes incluyen el difuminado de rostros en las fotos subidas a Copilot. Mientras que Jenks señala que las Credenciales de Contenido pueden ayudar a instaurar confianza en todo, desde publicidad hasta sitios de citas, Microsoft está ofreciendo una versión previa privada de sus herramientas a campañas, organizaciones electorales y periodistas antes que a nadie, como parte de una promesa para combatir el uso engañoso de IA en las elecciones de este año. La compañía también ha creado un espacio para que los candidatos denuncien deepfakes electorales que aparezcan en LinkedIn, Xbox y otros servicios para consumidores de Microsoft, y lanzó un fondo de 2 millones de dólares con OpenAI para aumentar la educación sobre la IA entre los votantes y las comunidades vulnerables.
Cómo detectar deepfakes
- Conoce y entiende la fuente: Busca la atribución, los subtítulos y las Credenciales de Contenido. Investiga las imágenes a través de una búsqueda visual. Pregúntate si la fuente es confiable y ten cuidado si no hay una fuente clara.
- Considera la intención: ¿Tiene el contenido como objetivo entretener, informar o persuadirte? Analizar el propósito puede darte una mejor idea de si alguien pudiera estar tratando de engañarte.
- Busca inconsistencias y anomalías: Las imágenes generadas por IA pueden tener errores ortográficos, figuras borrosas, ropa desparejada, iluminación inconsistente y texturas extrañas.
- Pon a prueba tus habilidades de detección de IA: Con el quiz «Real or not» es posible distinguir entre imágenes reales y generadas por IA.