Algunos de los científicos más destacados del mundo han firmado conjuntamente un documento en que alertan de los peligros de la inteligencia artificial (IA). El texto, publicado en la revista Science, alerta de que este tipo de tecnología podría provocar la extinción de la humanidad. “Este avance sin control de la IA podría culminar con una pérdida a gran escala de vidas y de la biosfera, y la marginación o extinción de la humanidad”, se recoge en el documento firmado por 25 científicos en este campo, entre ellos algunos Premios Nobel.

El grupo de científicos alerta de que ya se pueden crear “sistemas de IA altamente poderosos, que superan las capacidades humanas en muchos dominios críticos”. Justamente por eso, reclaman que haya un consenso a la hora de regular esta tecnología, aunque esta actualmente no existe. “Las actuales iniciativas de gobernanza no disponen de mecanismos e instituciones para prevenir el mal uso y la imprudencia y a duras penas abordan los sistemas autónomos”, apuntan al texto.

“Una vez que los sistemas de IA autónomos persigan objetivos indeseables, es posible que no podamos controlarlo”, alertan en el documento y ejemplarizan: “Para avanzar en objetivos indeseables, los sistemas de IA podrían ganar la confianza humana, adquirir recursos e influir en quines toman decisiones clave”. Los expertos señalan que es una amenaza a varios niveles, desde militar a social.

Propuestas para regular esta tecnología

Los 25 expertos recomiendan que los gobiernos tienen que establecer instituciones expertas de acción rápida para la supervisión de la IA, los cuales tienen que estar bien financiados. También se reclama a las empresas que desarrollando esta tecnología que haya más transparencia: “La toma de decisiones de la IA es opaca, y los modelos grandes y potentes son más complejos de interpretar. Hasta ahora, solo podemos probar modelos grandes mediante ensayo y error. Tenemos que aprender a entender su funcionamiento interno”.

Mientras estos científicos piden más regulación, transparencia y alertan de los riesgos que las empresas que desarrollan estas tecnologías vuelen por libre, OpenAI ha suprimido su departamento enfocado a analizar los riesgos a futuro de la IA. Hacía solo un año que existía y se preveía destinar a esta división, que recibía el nombre de Superalignment, hasta un 20% de la “potencia de cálculo” de OpenAI durante cuatro años para, entre otras líneas de investigación, evaluar posibles peligros derivados de los nuevos escenarios que abre la inteligencia artificial. Sin embargo, de acuerdo con la prensa de los EE. UU., la plantilla de esta sección está siendo recolocada en otras secciones dentro de la compañía.