Quién más quién menos ha hablado de algún tema con ChatGPT. Algunos de temas banales, otros le han pedido consejos como si fuera un psicólogo particular o un experto en física cuántica. Sea como sea, a OpenAI, ahora, le preocupa que la gente pueda empezar a confiar demasiado con ChatGPT, especialmente ahora que tiene activado un nuevo modo de voz, que suena como si fuera humana. De hecho, la misma empresa habla de "dependencia". Esta revelación se produce en un informe de OpenAI sobre la revisión de seguridad que ha hecho la herramienta, que recoge la CNN, que ha empezado a implementarse para usuarios de pago la semana pasada, y el gran modelo de inteligencia artificial de lenguaje en la cual se ejecuta.
Y es que hay que constatar que el modo avanzado de ChatPT suena increíblemente realista. Responde a tiempo real, puede adaptarse a las interrupciones y hace el tipo de sonidos que hacemos los humanos durante las conversaciones. Como por ejemplo, risa, abusar de términos como "eh" o "hmm". Y además, también puede juzgar el estado emocional de una persona que le habla según el tono de su voz. Total, que se puede hablar e incluso discutir como si fuera una persona real. Con el añadido que, vete a saber si, al ser un 'robot', puedes acabar perdiendo los argumentos –y los papeles–.
A los pocos minutos que OpenAI anunció la función en un acontecimiento al principio de este año, se la comparó con el asistente de la película Her, donde el protagonista se enamora de la máquina. Un protagonista que queda desolado cuando le confiesa que 'ella' tiene relaciones con centenares de usuarios. Esta historia de ficción podría convertirse en una realidad. De hecho, OpenAI está preocupado, especialmente después de ver como algunos usuarios hablaban con ChatGPT en un lenguaje que "expresaba vínculos compartidos" con la herramienta.
Una dependencia que podría afectar a las relaciones sanas
Con el tiempo, "los usuarios podrían establecer relaciones sociales con la IA, reduciendo la necesidad de interacción humana, cosa que podría beneficiar a las personas solitarias, pero posiblemente afectaría a las relaciones saludables o sanas", afirma el informe. Añade que escuchar información de un robot que suena como un humano podría llevar a los usuarios a confiar en la herramienta más de lo que deberían, vista la propensión de la IA a equivocarse. Y eso incluye todo tipo de consultas. Desde médicas, hasta emocionales, pasando consultas psicológicas, sobre cocina o trabajos de universidad.
En este sentido, el informe destaca un riesgo general en torno a la inteligencia artificial: las empresas tecnológicas se apresuran a poner a disposición del público herramientas de inteligencia artificial que, según afirman, podrían cambiar radicalmente la manera como vivimos, trabajamos, socializamos y encontramos información. Pero lo hacen antes de que nadie comprenda realmente cuáles son estas implicaciones. Como pasa con muchos avances tecnológicos, las empresas suelen tener una idea de cómo se pueden y tienen que utilizar las herramientas, pero los usuarios idean toda una serie de otras posibles aplicaciones, a menudo con consecuencias no deseadas. De hecho, esta no es la primera vez que surge este debate. Algunas personas ya están formando lo que describen como relaciones románticas con robots, un tema que ya ha añadido preocupación entre los expertos. Por ahora, OpenAI se ha comprometido a construir la IA de manera "segura", y seguirá estudiando su potencial de "dependencia emocional" de los usuarios en sus herramientas.