Un dels reptes majors que té la intel·ligència artificial és aplicar l'ètica a les seves accions. Però la gran pregunta és, com aconseguir això si al món real és encara molt difícil? La nostra col·laboradora Cecilia Celeste Danesi és una experta en tot això. Ja va impulsar una formació universitària l'any 2018, quan la IA encara no sabíem, per a molts què era. Encara que confessa que va ser en el 2015, en Girona, on va començar el "matrimoni" amb aquesta tecnologia. Els seus articles en ON-IA són tota una referència per al sector i aprofitem el seu viatge a Barcelona per xerrar amb ella.
Nou llibre
El pròxim 12 de febrer, Cecilia Celeste Danesi presenta el seu últim llibre "Drets del consumidor a la cruïlla de la intel·ligència artificial: la necessària reforma de la Directiva de productes defectuosos", a partir de les 19h en l'Espai Dykinson, Carrer de Gaztambide 21, Madrid, Espanya. Llibreries - Editorial Dykinson Luis Miguel Tigeras Sierra. Aprofitem el plató d'ON-IA per conèixer més el seu perfil i quins reptes té la IA. Cecilia és un autèntic llibre obert: advocada, escriptora, conferenciant, professora i investigadora en intel·ligència artificial, gèneres i drets. L'apassiona la innovació i la tecnologia i sobre tot el seu impacte social. Va fer la carrera de Dret a l'UBA i va treballar més de 10 anys en el Poder Judicial. Actualment, compagina el seu dia a dia amb ser una de les veus que assessoren organismes de la talla de la UNESCO o la Unió Europea.
"Els algoritmes són neutrals"
En aquesta entrevista ens dona diferents reflexions que conviden a tenir una visió més àmplia de la IA. Per a Danesi, parlar d'ètica en la IA passa per "no parlar de prohibicions. El plantejament ha de ser: Com la podem incorporar de manera inclusiva? De manera que respecti a les minories, a les persones, als col·lectius vulnerables. Els sistemes d'intel·ligència artificial tenen el que es coneix, hem parlat d'això, crec que en les primeres columnes sobre els biaixos algorítmics o falles que tenen els sistemes d'intel·ligència artificial, que moltes vegades són fins i tot imperceptibles per a l'ull humà". I ens dona alguna recepta per diferenciar els biaixos o prejudicis que en la IA també hi ha: "Són molt difícils detectar-los, però no impossible. Un dels temes en els quals jo estic treballant ara, que presentem un policy brief, que és com un document de recomanacions per al G20, és sobre les auditories algorítmiques. Amb això també treballem per a la Unesco des del grup Women Forestical in AI". I afegeix: "No pretendrem tenir una IA perfecta, això no existeix. Però hem de provar d'evitar certs usos o prediccions o resultats que perjudiquen i discriminen".
L'ètica demana entendre que l'usuari d'aquesta IA, alhora, també és amo d'ella i responsable. "Quan faig una xerrada, demano que aixequi la mà qui alguna vegada va entrenar un algoritme. Llavors, clar, si no estàs en un àmbit de programació així, tots es queden sense una resposta concreta. Però hem de saber que, entre tots, contribuïm a entrenar els algoritmes. A les xarxes socials, quan posem m'agrada, interactuem amb una publicació, ja pel temps que estem veient una publicació li estem ensenyant què ens agrada i què no. Quan utilitzem ChatGPT, també us li vas ensenyant al sistema el que vol, la qual cosa està bé, la qual cosa està malament. Llavors, tots d'alguna manera entrenem algoritmes. Això marca el nostre perfil com a societat". I conclou en aquest sentit: "Primer hi ha una responsabilitat nostra i una consciència que és el que estem fent cada vegada que interactuem amb un algoritme".
![IMG 4617 IMG 4617](/uploads/s1/51/07/87/34/img-4617.jpeg)
Per tot això, defineix els algoritmes com peces neutrals que on la "parcialitat la hi donem nosaltres, des del que els desenvolupa, el que elegeix les dades amb les quals s'entrenarà, el que l'entrena, el que tot, i després els usuaris. Amb la qual cosa, la falta d'imparcialitat és producte de la interacció amb l'humà. Si volem que sigui ètic o no, depèn de l'ús que li donem. Sempre poso un exemple, l'energia nuclear és bona o dolenta depenent de com la utilitzem".
El camí de la IA que dibuixa Cecilia és cap a una hiperpersonalització. "Avui tenim ChatGPT, tots aquests models, llenguatge. Bo, en el futur cada un tindrà com un ChatGPT a imatge i semblança seva i al seu gust. En el sentit que, com que va cada vegada pot aprendre més els nostres gustos, ens podrà donar respostes més adequades al nostre perfil". En aquest sentit, la nostra entrevistada alerta del filtre bombolla o visió de túnel, que és que cada vegada estarem més abstrets en les nostres creences i els nostres pensaments.
La IA aflora el concepte de neurodret
Un altre concepte que Danesi ens avança és el concepte de neurodrets, que són aquesta nova generació de drets humans que el que fan és buscar, protegir la indemnitat del cervell humà davant l'avenç de les tecnologies. "Són una nova generació de drets humans basats en generacions de primera, segona, tercera... A mesura que va evolucionant la societat, anem com tenint més drets humans reconeguts perquè en realitat es considera és una cosa innata de les persones, els neurodrets són drets que busquen protegir la indemnitat cerebral, el nostre cervell, de l'avenç de les neurotecnologies".
"Els docents s'han de replantejar els mètodes"
En clau d'actualitat, Cecilia Celeste Danesi acaba amb una reflexió sobre l'ús de la tecnologia en l'àmbit educatiu. A Catalunya, es vol prohibir els mòbils en tota l'educació obligatòria, inclou també la secundària, però quines mesures són realment efectives? "Per a mi el debat està en el desafiament que això li genera al docent. Avui, amb ChatGPT, amb les xarxes socials, amb les plataformes digitals i amb tota aquesta revolució, els mètodes de fa deu anys no funcionen. Ningú no aprendrà i a ningú no li interessarà aprendre de la manera estàtica, potser, que s'estudiava abans, Aleshores, els primers que ens hem d'asseure al banc dels acusats som, perdó la paraula, em surt la jurista, som els docents". I conclou: "Jo li dic a un alumne que si em vol enganyar, m'ha de saber enganyar bé, perquè jo sé que vostès utilitzaran ChatGPT. Sàpiguen-ho utilitzar bé, perquè si no el sabeu utilitzar bé, significa que no vas aprendre res. I després hi ha una altra cosa que és, bo, ChatGPT s'equivoca moltes vegades. Hauràs de saber espavilar-te al mig d'un camp de mines molt més gran que abans".