Poc després de la invasió d'Ucraïna el 2022, fotògrafs locals van començar a documentar la destrucció de llocs culturals per ajudar a preservar el patrimoni del país i recopilar proves per a la restauració. Tanmateix, la propagació d'imatges falses relacionades amb la guerra estava causant un problema: la gent va començar a confondre les imatges reals de les veritables. Això va portar els fotògrafs a utilitzar una nova eina que demostrés que les seves imatges no eren deepfakes, és a dir, continguts generats per IA que semblen persones, llocs o esdeveniments reals, encara que menys realistes. Aquest prototip va donar lloc al conjunt d'eines d'integritat de continguts de Microsoft, dissenyades per aportar més transparència al que es publica a internet.
Amb la quantitat de processos electorals que se celebraran per tot el món, que aquest any s'espera que atreguin un rècord de 2.000 milions de votants, diverses organitzacions polítiques, electorals i de mitjans de comunicació estan utilitzant ara aquestes eines per poder atribuir-se els seus treballs, millorar la transparència, generar confiança i prevenir la desinformació. Donar suport a un ecosistema d'informació que aporta més confiança amb eines i pràctiques d'IA responsables és només una de les formes en què Microsoft està combatent els deepfakes.
"Les repercussions dels deepfakes poden ser gravíssimes. Són una forma de hackató cognitiva que canvia la relació amb la realitat i la manera en què pensem sobre el món", diu Andrew Jenks, director de Procedència de Mitjans a Microsoft. Jenks presideix la Coalició per a la Procedència i Autenticitat del Contingut (C2PA), una organització que Microsoft va cofundar per desenvolupar un estàndard tècnic obert que permet establir la procedència, o l'origen i la història, del contingut digital, inclosos els actius generats per IA. El contingut manipulat no és una cosa nova i, de vegades, és clarament una sàtira o comèdia. Però l'auge de la IA generativa està facilitant que persones amb males intencions difonguin desinformació, la qual pot portar a fraus, robatoris d'identitat o interferència electoral, entre altres perills. Detalls com la firma o els subtítols sovint desapareixen quan el contingut es comparteix, el que dificulta que les persones sàpiguen en què confiar.
A causa que les metadades són invisibles, Microsoft també ofereix una eina pública de verificació d'integritat de contingut i una extensió per a navegadors web, els quals permeten als consumidors escanejar credencials i revisar la procedència de la informació. Les persones també poden buscar una icona de Credencials de Contingut en imatges i vídeos en plataformes com LinkedIn. "Les Credencials de Contingut proporcionen una capa important de transparència, independentment de si es va utilitzar IA o no, per ajudar les persones a prendre decisions més informades sobre el contingut que comparteixen i consumeixen a internet", assenyala Jenks. "A mesura que es fa més fàcil identificar l'origen i la història del contingut, és possible que les persones es tornin més escèptiques respecte al material que manca d'informació específica sobre la seva procedència".
Microsoft fa servir les seves eines de Credencials de Contingut als seus propis productes generadors d'imatges mitjançant IA (Designer, Copilot, Paint i alguns models seleccionats d'Azure OpenAI Service), amb l'objectiu d'evidenciar que es va utilitzar IA quan es va crear la imatge i altres detalls. Altres controls responsables d'IA per dissuadir sobre l'abús de deepfakes inclouen el difuminat de rostres a les fotos pujades a Copilot. Mentre que Jenks assenyala que les Credencials de Contingut poden ajudar a instaurar confiança en tot, des de publicitat fins a llocs de cites, Microsoft està oferint una versió prèvia privada de les seves eines a campanyes, organitzacions electorals i periodistes abans que a ningú, com parteix d'una promesa per combatre l'ús enganyós d'IA en les eleccions d'aquest any. La companyia també ha creat un espai perquè els candidats denunciïn deepfakes electorals que apareguin en LinkedIn, Xbox i altres serveis per a consumidors de Microsoft, i va llançar un fons de 2 milions de dòlars amb OpenAI per augmentar l'educació sobre la IA entre els votants i les comunitats vulnerables.
Com detectar deepfakes
- Coneix i entén la font: Busca l'atribució, els subtítols i les Credencials de Contingut. Investiga les imatges a través d'una recerca visual. Pregunta't si la font és confiable i ves amb compte si no hi ha una font clara.
- Considera la intenció: Té el contingut per objectiu entretenir, informar o persuadir-te? Analitzar el propòsit pot donar-te una millor idea de si algú pogués estar provant d'enganyar-te.
- Busca inconsistències i anomalies: Les imatges generades per IA poden tenir errors ortogràfics, figures borroses, roba desparellada, il·luminació inconsistent i textures estranyes.
- Posa a prova les teves habilitats de detecció d'IA: Amb el joc de preguntes i respostes «Reial or not» és possible distingir entre imatges reals i generades per IA.