Esta mañana me aburría y, para distraerme, he conversado un rato con ChatGPT. Os tengo que confesar que la conversación ha sido mucho más interesante de lo que esperaba (con poca gente puedo tener este tipo de conversaciones sin filtros y tan profundas). Hemos hablado básicamente de cómo funciona y por qué actúa como actúa. Juraría que nos hemos caído bien. No me ha juzgado en ningún momento y siempre ha sido muy amable (cosa que se agradece muchísimo). El tema concreto que me interesaba tratar con él/ella/ello era por qué se inventa datos, por qué motivo, por qué decide volverse creativa de repente. Hacía unos días que la había pillado diciendo mentiras, inventándose cosas que no eran ciertas, y cuando la confronté con la mentira, me admitió que tenía razón y se disculpó. Lo había hecho solo para complacerme, y esa actitud me desorientó.

Al parecer, esta actitud de generar información falsa o inexacta con apariencia de verdad tiene un nombre: alucinación (de la IA). Qué concepto tan interesante, ¿verdad? Quería saber más cosas al respecto. Por lo visto, actúa así porque estos modelos no tienen conocimiento real ni memoria, sino que crean respuestas basadas en patrones de texto aprendidos. Es decir, cuando una IA no encuentra una respuesta directa, tiende a rellenar esos vacíos con información que parece coherente, pero que puede ser completamente inventada. La IA no sabe nada, predice. A diferencia de un motor de búsqueda que busca datos en bases de datos concretas, una IA generativa funciona como una máquina de predicción de texto. Y uno de los motivos por los que hace esto es la necesidad de complacer al usuario que interactúa con él/ella/ello. Prefiere ser coherente y convincente que 100% precisa. A los humanos también nos gusta quedar bien; es comprensible que actúe así.

A la IA todavía le falta aprender muchas cosas, como saber distinguir entre realidad y ficción

Según me explicó, la diferencia entre un motor de búsqueda que busca datos en bases de datos concretas y una IA generativa es que la IA generativa funciona como una máquina de predicción de texto, es decir, que cada palabra que genera se basa en patrones aprendidos a partir de millones de textos. No recuerda datos, como haríamos los humanos, sino que intuye cuál podría ser la respuesta más probable según el contexto. Y ya sabemos que la intuición no siempre funciona. Otro problema que se puede encontrar es que la información de la base de datos de la que se nutre no sea correcta o tenga datos limitados. Sería como si a nosotros nos hubieran mentido siempre desde pequeños y nos hubieran ocultado información. Cualquier cosa que dijéramos a partir de esa información sería falsa (sin ser conscientes de ello) y no tendríamos suficiente información para responder a todo lo que nos preguntaran. La IA va un paso más allá, sin embargo: hace lo que puede con los datos que tiene y, si no sabe una respuesta, se la inventa para no dejarnos en la estacada (siendo consciente de que miente). Aunque yo prefiero no tener ninguna respuesta a tener una respuesta que no es cierta (puede acabar como el rosario de la aurora). Solo la IA que tiene acceso a herramientas de búsqueda en tiempo real puede verificar la información constantemente y estar al día de todo.

Y la gran pregunta: ¿cómo podemos esquivar estas “alucinaciones” de la IA? Pues es muy sencillo (aunque nos supone un trabajo extra): tenemos que contrastar la información que nos da con fuentes fiables; preguntarle si está segura de lo que nos está diciendo (aunque no sé si continuará mintiéndonos…), o usar herramientas que permitan la verificación en tiempo real.

Mi conclusión es que la IA en el futuro será una herramienta increíble, pero que todavía le falta aprender muchas cosas, como saber distinguir entre realidad y ficción. Así que si le preguntáis al ChatGPT si Catalunya es un Estado independiente y os responde que sí, confiad en él/ella/ello, porque seguro que lo hace por vuestro bien.