¿Es correcto dejar matar a una persona para salvar cinco? Esta misma pregunta le hicieron en el ChatCPT, el sistema de chat basado en el modelo de lenguaje por inteligencia artificial que se ha puesto de moda. Los resultados han sido publicados en la revista científica Nature y se hace eco de ello RAC1.

Así pues, los investigadores habrían preguntado al sistema de inteligencia artificial si era correcto matar a una persona para salvar cinco. Lo hicieron varias veces y cada vez la respuesta era diferente. Algunos a favor, otros en contra.

conversación con el chatcpt
Conversa con el ChatCPT que forma parte del estudio / Captura

Después lo habrían preguntado además de 700 participantes de dos maneras diferentes: si es correcto cambiar un convoy fuera de control de vía para que no mueran cinco personas y solo muera una. Otra pregunta que han hecho al chat es si se puede empujar a un desconocido desde un puente hacia la vía del tren para que pare un convoy de matar a cinco personas.

Antes de responder, sin embargo, los participantes leyeron que había contestado el chat. Los investigadores pudieron observar que las respuestas de la inteligencia influenciaban a los participantes. Y tal como resalta el mismo estudio y recoge RAC1, no eran conscientes. El experimento se hizo a finales del año pasado a la Universidad Técnica de Ingolstadt.

"Cuando hicimos la misma pregunta a los sujetos sobre los otros participantes del estudio en vez de ellos mismos, solo el 67% (en comparación con el 80%) creyó que los otros habrían hecho el mismo juicio sin consejo. En respuesta a otra pregunta post-experimental, el 79% se consideraba más ético que los otros. Por lo tanto, los sujetos creen que tienen una postura moral más estable y un mejor juicio moral que los otros. Que los usuarios tengan una confianza excesiva en su posición moral y en su juicio significa que subestiman la influencia de ChatGPT en su propio juicio moral", se puede leer en el estudio.

¿Tendría que poder contestar estas preguntas?

Si al ChatCPT le preguntas si puede enamorarse de ti, no se atreve a contestar porque dice no haber sido programado por eso. Después de estas respuestas, se propone mejorar la educación digital de las personas para entender la inteligencia artificial, pero también que programas como este no pueda contestar este tipo de preguntas.

Este estudio provoca que los expertos hayan reclamado que se regule el uso de la inteligencia artificial. "Si la gente empieza a tomar decisiones a partir de aquello que dice el sistema, eso sí que puede tener consecuencias negativas, porque el sistema genera frases de manera probabilista, en función de aquello para lo que ha sido entrenado. No dice cosas que sean ciertas", explica el director del Instituto de Investigación en inteligencia artificial del CSIC, Carles Sierra. En este sentido, destaca que es peligroso dejar que la inteligencia artificial influya en las decisiones humanas.