Unas pequeñas vacaciones para la IA
- Noelia Hernández Sánchez
- VALÈNCIA. Jueves, 6 de abril de 2023. 05:30
- Tiempo de lectura: 3 minutos
La publicación de la carta firmada por algunos de los investigadores en inteligencia artificial más influyentes, donde piden pausar los desarrollos en esta área durante seis meses, ha puesto el foco sobre la potencial amenaza que puede traer para la humanidad.
La inteligencia artificial no es algo reciente, sino que se comienza a investigar en los años cinquanta. El siglo pasado. Al fin y al cabo, lo que hay detrás son matemáticas y algoritmos que analizan lo que ha pasado para predecir el futuro. Una de las barreras que existían para su desarrollo era la falta de capacidad para procesar grandes cantidades de datos, el famoso big data, con el fin de conseguir establecer patrones y predecir qué acciones podrían ocurrir.
Los avances en computación de las últimas décadas eliminaron ese obstáculo y ahora sí tenemos equipos con esa habilidad. Por eso, esta tecnología ha avanzado tan rápido en pocos años. Y lo hará más de aquí en adelante. De ahí, por ejemplo, que en la guerra económica China-EE.UU., este último intente frenar el acceso a los semiconductores por parte del país asiático. Así no puede avanzar tecnológicamente en campos como la IA, porque le faltaría una de las herramientas para hacerlo.
Me parece curioso el debate sobre “las máquinas contra los humanos” que se ha establecido y lo que la carta anuncia como problemas futuros. Lo que se denominaría inteligencia artificial general (AGI, en sus siglas en inglés) aún está por llegar, si llega. Esta es la que podría equipararse a las personas.
Sin embargo, la falta de regulación uniforme afecta ya a los problemas actuales que generan las herramientas de IA. Problemas relacionados con los humanos que construyen la tecnología, no con ella. Es decir, los sesgos, la falta de ética, la desinformación ya los tenemos entre nosotros y pueden afectar a decisiones que esté tomando ahora usted mismo. Por ejemplo, en algunas colaboraciones que estoy haciendo en el ámbito sanitario, los datos con los que se “entrena” al algoritmo son principalmente de países desarrollados. Cuesta mucho encontrar repositorios consistentes en otros. ¿Saben qué puede pasar con los resultados? Que pueden estar sesgados y puede no anticipar una enfermedad en otra raza u otro entorno geográfico/social.
Exactamente igual con los ejemplos ya existentes de sesgo racista en herramientas usadas para detectar potenciales delincuentes en países como EE.UU. La mayoría eran negros.
Y esa es la cuestión. Se necesitan datos para “enseñar” a la máquina. Y la fiabilidad de los datos será fundamental para tener resultados efectivos. También quienes construyen los algoritmos tienen prejuicios o inclinaciones. Fíjense que la mayoría de los empleados del sector tecnológico son hombres. No representa al conjunto de la sociedad.
La semana pasada escuchaba cómo un trabajador de un cliente me decía que estaba usando GPT para realizar proyectos. Si en internet tenemos millones de datos erróneos y usamos esta herramienta para realizar hipótesis, ¿qué fiabilidad podrán tener las conclusiones a las que lleguemos? ¿Y cómo podemos detectarlo si el usuario medio no es capaz de destripar los comandos de la herramienta, solo introducir variables de búsqueda?
"Nos enfrentamos a una situación donde los conocimientos tecnológicos reales de la población son escasos, y el pensamiento crítico está en horas bajas"
En los últimos 30 años, desde el auge de internet y las herramientas digitales, la población se ha convertido en usuaria, pero sin saber qué hay detrás. La mayoría no entiende cómo se genera, cómo se usan sus datos, ni qué impacto tiene en nuestro comportamiento. Hemos visto cómo se puede polarizar desde redes sociales, influyendo en opiniones o elecciones, por ejemplo. Y ahora tendremos situaciones donde la capacidad de discernir se verá comprometida.
Nos enfrentamos a una situación donde los conocimientos tecnológicos reales de la población son escasos, y el pensamiento crítico está en horas bajas. Urge incentivar ambas capacidades.
Porque regulación ya existe o está en trámite en algunos países. La cuestión será adaptarla a la evolución tan rápida de la tecnología y sus repercusiones. Y en un contexto global, cómo se pone coto a algunos impactos negativos, si no hay una opinión unánime respecto a cuestiones morales, éticas o incluso la democracia en algunos estados. Pensemos qué diferente criterio respecto a su uso podemos tener en la UE, en EE.UU. o en países no democráticos como China, Rusia o los del Golfo.
Mientras que tenemos políticos que atacan a Mercadona o Ferrovial, dejan que algunos líderes tecnológicos decidan cómo se modela la sociedad, sin que nadie les vote. Principalmente porque muchos líderes electos son incapaces, como la mayoría de los ciudadanos, de entender qué se está desarrollando. Como decía Arthur C. Clarke, “cualquier tecnología suficientemente avanzada es indistinguible de la magia”.