Qui més qui menys ha parlat d'algun tema amb ChatGPT. Alguns de temes banals, d'altres li han demanat consells com si fos un psicòleg particular o un expert en física quàntica. Sigui com sigui, a OpenAI, ara, li preocupa que la gent pugui començar a confiar massa amb ChatGPT, especialment ara que té activat un nou mode de veu, que sona com si fos humana. De fet, la mateixa empresa parla de "dependència". Aquesta revelació es produeix en un informe d'OpenAI sobre la revisió de seguretat que ha fet l'eina, que recull la CNN, que ha començat a implementar-se per a usuaris de pagament la setmana passada, i el gran model d'intel·ligència artificial de llenguatge en el qual s'executa. 

I és que cal constatar que el mode avançat de ChatPT sona increïblement realista. Respon a temps real, pot adaptar-se a les interrupcions i fa el tipus de sons que fem els humans durant les converses. Com per exemple, riure, abusar de termes com "em" o "hmm". I a més a més, també pot jutjar l'estat emocional d'una persona que li parla segons el to de la seva veu. Total, que es pot parlar i fins i tot discutir com si fos una persona real. Amb l'afegit que, ves a saber si, en ser un 'robot', pots acabar perdent els arguments –i els papers–.

Als pocs minuts que OpenAI va anunciar la funció en un esdeveniment a principis d'aquest any, se la va comparar amb l'assistent de la pel·lícula Her, on el protagonista s'enamora de la màquina. Un protagonista que queda desolat quan li confessa que 'ella' té relacions amb centenars d'usuaris. Aquesta història de ficció podria convertir-se en una realitat. De fet, OpenAI està preocupat, especialment després de veure com alguns usuaris parlaven amb ChatGPT en un llenguatge que "expressava vincles compartits" amb l'eina. 

Una dependència que podria afectar a les relacions sanes

Amb el temps, "els usuaris podrien establir relacions socials amb la IA, reduint la necessitat d'interacció humana, cosa que podria beneficiar les persones solitàries, però possiblement afectaria les relacions saludables o sanes", afirma l'informe. Afegeix que escoltar informació d'un bot que sona com un humà podria portar els usuaris a confiar en l'eina més del que haurien, atesa la propensió de la IA a equivocar-se. I això inclou tota mena de consultes. Des de mèdiques, fins a emocionals, passant consultes psicològiques, sobre cuina o treballs d'universitat. 

En aquest sentit, l'informe destaca un risc general al voltant de la intel·ligència artificial: les empreses tecnològiques s'afanyen a posar a disposició del públic eines d'intel·ligència artificial que, segons afirmen, podrien canviar radicalment la manera com vivim, treballem, socialitzem i trobem informació. Però ho fan abans que ningú comprengui realment quines són aquestes implicacions. Com passa amb molts avenços tecnològics, les empreses solen tenir una idea de com es poden i han d'utilitzar les eines, però els usuaris ideen tot un seguit d'altres possibles aplicacions, sovint amb conseqüències no desitjades. De fet, aquesta no és la primera vegada que sorgeix aquest debat. Algunes persones ja estan formant el que descriuen com relacions romàntiques amb bots, un tema que ja ha afegit preocupació entre els experts. Per ara, OpenAI s'ha compromès a construir la IA de manera "segura", i continuarà estudiant el seu potencial de "dependència emocional" dels usuaris en les seves eines. 

 

Segueix ElNacional.cat a WhatsApp, hi trobaràs tota l'actualitat, en un clic!