Recents canvis en l'estratègia de desenvolupament d'IA als Estats Units han encès les alarmes en la comunitat internacional. L'administració Trump, a través de l'Institut Nacional de Normes i Tecnologia (NIST, per les seves sigles en anglès), ha difós nous lineaments per als científics vinculats amb l'Institut de Seguretat de la Intel·ligència Artificial (AISI, per les seves sigles en anglès). En el principal, eliminen la menció de termes com a "IA responsable", "seguretat de la IA" i "imparcialitat de la IA". Així mateix, se suprimeix la construcció d'eines tendents a la verificació de continguts i el rastreig de la seva procedència, com així també l'etiquetatge de continguts sintètics.
L'objectiu? Reduir el "biaix ideològic"
Promoure i garantir la competitivitat econòmica del país. Això va en línia amb altres mesures preses com la derogació de l'ordre executiva de Biden sobre seguretat i transparència de la intel·ligència artificial. Està clara la influència d'Elon Musk en la seva decisió i el seu lideratge en el Departament d'Eficiència Governamental (DOGE). Musk ha estat un fort crític dels models d'IA desenvolupats per empreses com OpenAI i Google, acusant-los de ser "woke" o esbiaixats políticament. La resposta ara és contundent: l'administració ha optat per modificar l'orientació de la investigació en IA, deixant de banda preocupacions sobre discriminació i seguretat en favor d'una narrativa que prioritza la competitivitat nord-americana.
Què representa això a la pràctica? Aquest gir no és menor: implica un canvi de rumb en la governança de la IA que pot tenir repercussions globals, debilitant la protecció contra biaixos algorítmics i reduint la transparència en l'ús d'aquests sistemes. Existeixen dues conseqüències gairebé palpables. D'una banda, un augment considerable a l'amenaça de manipulació i interferència d'informació estrangera (FIMI, per les seves sigles en anglès) i la generació d'escenaris propicis per a la desinformació (per exemple, les deepfakes). Ambdues temàtiques són summament preocupants per als governs i organismes internacionals i ocupen un punt important en la geopolítica global. Per l'altre, un augment considerable de les bretxes socials, ja que seran els mateixos de sempre els exclosos de la realitat dels algoritmes: el sud global i els col·lectius vulnerables i minoritaris.
Els biaixos i la seva possible supressió
Entre les accepcions a terme "biaix" proposades per la RAU, trobem "error sistemàtic en el qual es pot incórrer quan en fer mostrejos o assajos se seleccionen o afavoreixen unes respostes davant d'altres". Els psicòlegs Kahneman i Tversky van introduir el 1972 el concepte de biaix cognitiu com una interpretació errònia sistemàtica de la informació existent que influeix en la forma que prenem decisions, que pensem, i fem judicis de valor.
Els nostres valors, biaixos i preconceptes ens acompanyen, guien i orienten en cada pas que fem en la vida. Cada decisió, creació, tasca que portem endavant està impregnada del nostre "perfil ètic". Si bé en molts casos la imparcialitat és un objectiu lloable a assolir, per exemple, la d'un jutge en dictar una sentència, el cert és que és un objectiu fal·laç, ja que és impossible treure'ns la motxilla de valors i prejudicis que tenim dins.
Llavors, aquests biaixos, amb una indiscutible càrrega negativa en molts casos, són presents en tot el que fem i resulta gairebé impossible evadir-los. Així, aquests, als seus diferents vessants (ideològics, de confirmació, etc.), són traslladats a la tecnologia i replicat per aquesta.
Ja hem conversat en aquest espai sobre els biaixos algorítmics, és a dir, la transferència dels valors humans en els sistemes d'intel·ligència artificial i com aquesta els exacerba i replica. Hem compartit també molts exemples en la contractació laboral, la gestió de continguts en xarxes socials i els continguts que ens evidencia la IA generativa en la majoria dels casos amb biaixos algorítmics de gènere i racials.
Cap a un futur sense governança ètica?
El panorama actual ens enfronta a una pregunta urgent: pot la IA desenvolupar-se de manera justa sense una governança ètica clara? La resposta sembla ser no. La IA no és neutral; és un reflex dels valors que se li imprimeixen en el seu disseny i aplicació. Sense regulacions adequades, les grans corporacions i governs poden modelar aquests sistemes a la seva conveniència, deixant de banda principis fonamentals com l'equitat, la transparència i la seguretat. Eliminar el biaix ideològic és una fal·làcia que no es pot aplicar a la pràctica, ja que qualsevol creació, disseny o procés que duguem a terme tindrà impregnada la nostra ideologia. La decisió rau a determinar quin horitzó volem assolir en el desenvolupament de la tecnologia.