La frontera creativa: desafiaments legals i ètics de la intel·ligència artificial generativa
- Cristina Montañola
- Barcelona. Dissabte, 10 de juny de 2023. 05:30
- Actualitzat: Dilluns, 12 de juny de 2023. 09:23
- Temps de lectura: 2 minuts
Benvinguts a l'era tecnològica, cordin-se els cinturons. Els ràpids avenços tecnològics dels últims mesos estan deixant parats fins i tot als més freaks de la tecnologia. Cada setmana centenars d'aplicacions apareixen, a veure quina més útil i sofisticada. Ens trobem enmig d'una batalla tecnològica entre les grans corporacions (Microsoft, Google, Facebook/Meta, Apple...) per aconseguir la primera posició. O més aviat, per no quedar-se enrere, perquè saben que d'això depèn la seva supervivència, sent Google de les més afectades. Tant avanç resulta aclaparador i recorda més i més a les pel·lícules de ciència-ficció, com les noves ulleres de realitat virtual anunciades per Apple Vision Pro fa tan sols uns dies.
Amb l'augment de l'ús de la intel·ligència artificial (IA) generativa per crear contingut, sorgeixen moltes preguntes sense resposta. La IA pot crear contingut realista i convincent, com a imatges, vídeos i textos. Tanmateix, això també significa que pot ser difícil distingir entre contingut real i generat per IA. El que estic llegint està generat per IA o per un humà? Si l'ha generat la IA, el que estic llegint o veient és realment cert? Fa poc es va publicar a Twitter una imatge d'una explosió a l'edifici del Pentàgon que va causar molt enrenou i va ser compartida per molts usuaris, fins i tot per comptes verificats. El creador de la imatge creada amb IA es va disculpar més tard públicament posant èmfasi en com resulta de fàcil manipular la informació amb aquestes eines.
La necessitat de verificar la informació generada per IA és un dels principals punts que hem de tenir en compte. Es diu que els models que utilitzen aquests llenguatges "al·lucinen", és a dir, quan no tenen informació se la inventen partint d'una sèrie de probabilitats. Per exemple, fa poc un advocat va utilitzar ChatGPT per defensar un cas legal als Estats Units. El jutge se'n va adonar i no li va fer gaire gràcia. Però és que, encara que la IA tingui informació, com funciona a base de probabilitats, de vegades, s'equivoca en els seus resultats. Per exemple, un pot preguntar a ChatGPT sobre si plàtan i banana és el mateix. Segons com sigui la pregunta et dirà que sí o que no, i t'explicarà les diferències. Quina és la resposta correcta?
A més, l'ús d'IA generativa també planteja preocupacions ètiques. Si una IA genera contingut fals o enganyós, qui és responsable? Com es pot assegurar que el contingut generat per IA no causi mal a individus o grups? Per exemple, sabem que ChatGPT en la seva versió gratuïta té biaixos importants per gènere i facció política. Per què passa? Per la base de dades amb què el xatbot ha estat entrenat: informació que OpenAI no vol revelar.
D'altra banda, què passa amb els drets d'autor? Per exemple, si una IA genera una imatge que s'assembla a una fotografia presa per un fotògraf professional, qui té els drets d'autor sobre aquesta imatge? Actualment, existeixen demandes en curs amb Stability AI, Midjourney i DevianArt per temes de copyright, acusades d'utilitzar contingut protegit per drets d'autor sense permís. Com es pot verificar si una imatge o un text ha estat generat per IA o és autèntic? Actualment no tenim solucions fiables respecte a això.
Un tema que preocupa molt les empreses també és la privacitat de la informació. Aquests models aprenen de les interaccions, per la qual cosa cal revisar molt bé el que es comparteix. Empreses com Apple i Samsung han prohibit als seus treballadors l'ús de ChatGPT per por de possibles fugues de coneixement. I és que és molt temptador, perquè ChatGPT et permet millorar els teus escrits, generar idees, detectar errors en un codi o millorar-lo... Tasques que poden portar hores de feina, resoltes en pocs minuts.
Amb tot això sobre la taula, no és estrany que molta gent estigui pensant: quins efectes tindrà tota aquesta maquinària tecnològica en la nostra vida? Sens dubte, als Estats Units, aquest és el tema estrella. Per això, recentment el Congrés va demanar la compareixença del CEO d'OpenAI, Sam Altman. Altam va admetre el potencial de la IA per manipular opinions, especialment amb un any electoral apropant-se i va apel·lar a la necessària regulació de la IA. A Europa, el Consell de la UE està treballant actualment en una versió de la Llei d'IA que no acabarà de veure la llum fins a 2024. Potser, aleshores, la IA hagi penetrat tant en les nostres vides i costums que serà com "tancar l'establa després que els cavalls s'han escapat" i serà, com la revista Time vaticina en el seu últim número amb un to molt optimista "El final de la humanitat".