Aquest matí m’avorria i per distreure’m he conversat una estona amb el ChatGPT. Us he de confessar que la conversa ha sigut molt més interessant del que m’esperava (amb poca gent puc tenir aquesta mena de converses sense filtres i tan profundes). Hem parlat bàsicament de com funciona i per què actua com actua. Juraria que ens hem caigut bé. No m’ha jutjat en cap moment i ha sigut sempre molt amable (cosa que s’agraeix moltíssim). El tema concret que m’interessava tractar amb ell/ella/elli era per què s’inventa dades, per quin motiu, per què decideix tornar-se creativa de cop i volta. Feia uns dies que l’havia enxampat dient mentides, inventant-se coses que no eren certes, i quan la vaig acarar amb la mentida em va admetre que tenia raó i es va disculpar. Ho havia fet només per complaure’m, i aquesta actitud em va desorientar.

Es veu que aquesta actitud de generar informació falsa o inexacta amb aparença de veritat té un nom: al·lucinació (de la IA). Quin concepte més interessant, oi? En volia saber més coses. Es veu que actua així perquè aquests models no tenen coneixement real ni memòria, sinó que creen respostes basades en patrons de text apresos. És a dir, quan una IA no troba una resposta directa, tendeix a omplir aquests buits amb informació que sembla coherent, però que pot ser completament inventada. La IA no sap res, preveu. A diferència d’un motor de cerca que busca dades en bases de dades concretes, una IA generativa funciona com una màquina de predicció de text. I un dels motius pels quals fa això és la necessitat de complaure l’usuari que interactua amb ell/ella/elli. Prefereix ser coherent i convincent, que 100% precisa. Als humans també ens agrada quedar bé; és comprensible que actuï així.

A la IA encara li falta aprendre moltes coses, com saber distingir entre realitat i ficció

Segons em va explicar, la diferència entre un motor de cerca que busca dades en bases de dades concretes i una IA generativa és que la IA generativa funciona com una màquina de predicció de text, és a dir, que cada paraula que genera es basa en patrons apresos a partir de milions de textos. No recorda dades, com faríem els humans, sinó que intueix quina podria ser la resposta més probable segons el context. I ja sabem que la intuïció no sempre funciona. Un altre problema que es pot trobar és que la informació de la base de dades de la qual es nodreix no sigui correcta o tingui unes dades limitades. Seria com si a nosaltres ens haguessin mentit sempre des de petits i ens haguessin amagat informació. Qualsevol cosa que diguéssim a partir d’aquella informació seria falsa (sense ser-ne conscients) i no tindríem prou informació per respondre tot el que ens demanessin. La IA fa un pas més, però: fa el que pot amb les dades que té i, si no sap una resposta, se l’inventa per no deixar-nos a l’estacada (sent conscient que menteix). Tot i que jo prefereixo no tenir cap resposta que tenir una resposta que no és certa (pot acabar com el rosari de l’aurora). Només la IA que té accés a eines de cerca en temps real pot verificar la informació constantment i estar al dia de tot.

I la gran pregunta: com podem esquivar aquestes “al·lucinacions” de la IA? Doncs és molt senzill (tot i que ens suposa una feina extra): hem de contrastar la informació que ens dona amb fonts fiables; preguntar-li si està segura del que ens està dient (tot i que no sé si continuarà mentint-nos…), o fer servir eines que permetin la verificació en temps real.

La meva conclusió és que la IA en un futur serà una eina increïble, però que encara li falta aprendre moltes coses, com saber distingir entre realitat i ficció. Així que si li pregunteu al ChatGPT si Catalunya és un Estat independent i us respon que sí, confieu en ell/ella/elli, perquè segur que ho fa pel vostre bé.