L'ús d'eines d'intel·ligència artificial (IA) cada cop més sofisticades s'imposa en el dia a dia amb la força d'un tsunami i, el pitjor, que agafa la població sense eines per gestionar o identificar aquesta tecnologia. En altres paraules, sense defenses. Quan uns mesos enrere es viralitzaven imatges creades amb IA que eren tan realistes que confonien els ulls més experts, ja es plantejava el perill de l'ús d'aquesta tecnologia per difondre notícies falses o fer propaganda. Poc després ens trobem davant del conflicte d'Israel i Hamàs, on eines de fàcil accés d'IA estan a l'abast de tothom per sumar-se a la croada de les notícies falses i la propaganda amb imatges i vídeos completament realistes.
El cas més conegut d'acusacions creuades d'utilitzar IA per crear imatges del conflicte és el referent a les imatges de bebès calcinats per l'atac dels milicians de Hamàs. Per començar, el soroll mediàtic al voltant d'aquest cas comença des del minut zero. L'acusació que Hamàs havia decapitat quaranta infants en un kibbutz, va acabar sent matisada pel canal local que ho va difondre en directe en un inici. Tanmateix, no vol dir que no hi hagués infants i bebès víctimes de l'atac dels milicians islamistes. Però de decapitacions, es va passar a acusar que els terroristes havien calcinat les criatures, difonent imatges el mateix primer ministre d'Israel, Benjamin Netanyahu i amb les afirmacions de Joe Biden. Per altra banda, un comentarista polític estatunidenc va passar les imatges per un web per destriar si estan generades per IA amb el veredicte que sí que ho eren. Tot plegat només va afegir més llenya al foc: que ha passat? Realment ha passat? Qui ho difon i per què?
L'eficàcia de la IA, un perill per a les notícies
Aquest cas no és més que un exemple sobre com operen les imatges generades amb IA. Siguin fotografies o vídeos, algunes poden ser molt realistes, tant que no les sabem distingir. És a dir, es poden utilitzar per crear tota mena d'imatges per a fins propagandístics molt eficaços. Es pot escapar del jou de les trampes propagandístiques d'imatges fetes amb IA? El web AI or Not (IA o no, en català) analitza les imatges que es carreguen per determinar si són de procedència humana o creades amb una IA. Així com identifica si s'han fet amb alguns dels programes més coneguts. L'índex d'encert és prou alt, tot i que no és infal·lible.
En una entrevista a ElNacional.cat, Ismael Peña López, director de l'Escola d'Administració Pública de Catalunya i professor de la UOC en excedència, expert en tecnologia i societat de la informació, va advertir fa uns mesos: "La intel·ligència artificial serà absolutament indistingible per les persones. No ens passarà això de què si mirem el píxel esbrinem si hi ha Photoshop o no. O tenim una altra IA que ens ajuda a esbrinar els patrons que hi ha amagats darrere aquest producte o serem incapaços de distingir-ho". Una IA per reconèixer una altra IA, un concepte que pot semblar una paradoxa, però que ja existeix.
A qui creuràs, als teus ulls o un altre programa?
Haver de recórrer a una tecnologia per intentar certificar (sense la seguretat que sigui possible), si unes imatges són reals o artificials, ens deixa en una posició vulnerable. A més, es crea un nou argument per invalidar imatges i vídeos que poden ser reals. Es deixa caure sobre la taula la carta d'"això està fet amb intel·ligència artificial". Es tracta d'un argument difícil de rebatre: es confia en un algoritme perquè de forma veraç assenyali un altre algoritme o hem de confiar en els nostres ulls? Tornem al cas dels infants assassinats al kibbutz, per una banda, un algoritme apunta que la imatge pot estar feta amb IA, per l'altra, un govern les difons com a reals. Per desgràcia, quan plana l'ombra del dubte, ja no és igual la resposta, la discussió se centra en això i les dues opcions són còmodes per algun dels bàndols.
Per respondre activament, davant el dubte amb alguna mena d'imatge Peña anima a utilitzar el context per destriar la seva veracitat. Això podria ser útil quan es van viralitzar les fotografies falses del Papa fetes amb IA, en ple conflicte bèl·lic, on la informació i la desinformació són un front més marcat per la immediatesa, destriar el context es complica molt.
La IA és una eina, les xarxes, una plataforma de dispersió
"No ens hem de centrar en la tecnologia sinó en l'ús que en fem i en els creadors d'aquesta, concretament, en què estaven i que van obviar quan la van crear", exposaven a aquest mitjà fa mesos el col·lectiu millennial que investiga comunitats a les xarxes i noves formes de comunicació política, Proyecto Una. La IA no és en si negativa, té usos molt beneficiosos en alguns àmbits. Tanmateix, depèn de com s'empri. A la croada per prevenir la desinformació hi ha un actor molt important a banda de les IA: les xarxes socials.
La Unió Europa ha complert amb les seves amenaces sobre les xarxes de Meta (Facebook i Instagram) i Twitter (X). A aquestes plataformes se'ls va notificar que en el marc del contingut relacionat amb el conflicte Israel-Hamàs s'estava desinformant i propagant contingut "terrorista". Després d'un termini de 24 hores per revertir la situació. Davant de la inacció s'ha obert una investigació. A Twitter, concretament, se l'investiga per destriar quines mesures ha pres per a la mitigació dels riscos relacionats amb la "disseminació de contingut il·legal, desinformació, violència de gènere i els efectes negatius en l'exercici dels drets fonamentals, drets dels infants, seguretat pública i benestar mental". Es té la sospita que no les suficients, incomplint així la llei europea.