Apareció poco después de la Segunda Guerra Mundial, pero no ha sido hasta este año que ha llegado a toda la población. La Inteligencia Artificial (IA), definida por la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO como "un campo que implica máquinas capaces de imitar determinadas funcionalidades de la inteligencia humana, incluidas características como el aprendizaje y la resolución de problemas", ha pasado de ser un sinónimo de ciencia ficción a ser una herramienta usada por millones de personas. En la actualidad, la IA abarca gran variedad de subcampos y sintetiza y automatiza tareas de cualquier ámbito de actividad intelectual humana.
Su irrupción pasó totalmente desapercibida y ha sido este 2023 que ha tenido el efecto boom gracias al chatbot ChatGPT que OpenAI lanzó a finales del año pasado y que consiguió más de 100 millones de usuarios en solo 60 días. En este sentido, Ángel Galán, director del Área de Inteligencia Artificial&Data Science en IMMUNE Technology Institute, apunta que "en la actualidad, la inteligencia artificial posee capacidades impresionantes, pero aún estamos lejos de lograr la denominada Inteligencia Artificial General, es decir, que sea capaz de resolver problemas complejos de forma similar a como lo hacemos los humanos. Algo que implicaría poder aprender y adaptarse a nuevas situaciones según la situación lo requiera".
Mientras, añade que "a pesar de que la IA puede procesar enormes cantidades de datos y tomar decisiones basadas en algoritmos, carece de capacidades de interpretar emociones, aplicar el sentido común, o adaptarse a situaciones inesperadas de la misma manera que los humanos. Áreas como la creatividad, la intuición, el razonamiento ético y la empatía siguen siendo características intrínsecamente humanas que la IA no puede replicar completamente. Esperemos a ver qué nos depara los futuros avances en este aspecto".
Las grandes tecnológicas apuestan por la IA
Fueron las grandes multinacionales las primeras en unirse a la carrera para convertirse en la IA de referencia y en febrero Microsoft anunció una inversión de 13.000 millones de dólares en OpenAI, y señaló que está usando la tecnología GPT4 para su propio chatbot, Bing. Al mismo tiempo, Google dio a conocer su chatbot IA, Bard, y, en diciembre, la empresa anunció un modelo de IA más potente, Gemini, que es "multimodal nativo", lo que significa que puede aprender de datos que van más allá del texto, absorbiendo también información de audio, vídeo e imágenes. Meta, por su parte, apuesta por una alianza de IA entre diversas empresas para "avanzar hacia una IA abierta y gratuita".
De hecho, Antonio Budia, director de la división de Partners de Microsoft en España, explicó durante la última edición de TEDxEAEBusinessSchool que "la IA es una de las herramientas que cambiarán el destino del futuro y cómo lo utilicemos significará un mejor país, economía y contexto sociocultural en el que vivimos", y agregó que “cómo aproveches la tecnología tendrá una gran repercusión no solo en la sociedad, sino también a nivel económico”. En este sentido, Budia afirmó que “la sostenibilidad acelera la transformación, requiere herramientas e innovación para seguir el ritmo que demanda la sociedad. La inteligencia artificial es una oleada de innovación sin precedente, y tenemos que entender cómo podemos sacarle partido. Está aquí para quedarse y deber ser utilizada de manera responsable”, añadió.
En el ámbito local, la presidenta de Barcelona Activa, Raquel Gil, situó recientemente la IA como un "sector del futuro" al que la agencia de promoción económica municipal quiere acompañar a través de la formación y el apoyo a las empresas. Gil apostó por preparar a los jóvenes para que se dediquen a la IA porque es un "sector de crecimiento que se está diseñando de manera muy rápida", por lo que abogó porque haya diversidad a la hora de crear elementos de inteligencia.
La cara B de la Inteligencia Artificial
Como toda historia, también hay una cara B. Hace unas semanas los directivos españoles expresaron su preocupación por las pérdidas económicas y de información confidencial que les podía causar el uso de la IA generativa por parte de sus trabajadores en las compañías. La multinacional del sector de la ciberseguridad Kaspersky realizó una encuesta entre más de 500 directivos de empresas españolas y prácticamente la mitad apuntó no tener ninguna normativa interna sobre el uso de estas herramientas y solo el 19% ha debatido hasta ahora en sus negocios reglas para controlar el uso de esos sistemas de IA.
De hecho, fue en marzo de este año cuando más de mil empresarios e investigadores del sector tecnológico reclamaron en una carta que se suspendieran durante medio año los sistemas de IA "más poderosos que GPT4". Dos meses después, cientos de expertos advirtieron de que la IA plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear. El septiembre, Elon Musk, Zuckerberg, Gates, Sundar Pichai y Sam Altman, responsable de OpenAI, acudieron al Senado de EE.UU. para compadecer y debatir sobre la regulación de la IA.
No obstante, la primera institución en delinear la primera regulación importante de la IA en el mundo occidental fue la Unión Europea, que en diciembre pactó la ley de inteligencia artificial. Esta normativa permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y busca impulsar a la industria europea frente a gigantes como China y Estados Unidos.
Uso ilegal de datos
Recientemente, The New York Times Company, empresa editora del diario neoyorquino, presentó una demanda contra Microsoft y OpenAI por el uso ilegal de millones de artículos e investigaciones del periódico, protegidos por derechos de autor para la creación y el entrenamiento de servicios de IA. La denuncia sostenía que millones de artículos publicados por el periódico neoyorquino se utilizaron para entrenar chatbots automatizados que ahora compiten con el medio de comunicación como fuente de información confiable.
"El uso ilegal del trabajo del Times por parte de los demandados para crear productos de inteligencia artificial que compitan con él amenaza la capacidad del Times para brindar ese servicio", afirmó la editora del periódico, añadiendo que estas herramientas de inteligencia artificial generativa se crearon "copiando y utilizando millones de artículos de noticias protegidos por derechos de autor". "Si The Times y otras organizaciones de noticias no pueden producir y proteger su periodismo independiente, habrá un vacío que ninguna computadora o inteligencia artificial podrá llenar", apostilló en su denuncia.
IA en el futuro
De cara al futuro, el centro tecnológico Eurecat prevé que 2024 será el año de la explotación de la IA Generativa, que dará lugar a soluciones desarrolladas para una gran cantidad de sectores, incluyendo la salud, la construcción, la manufactura y la administración, entre otros. El director científico de Eurecat, Daniel Casellas, ha puesto en valor “el enorme potencial que se abre para lograr que los nuevos desarrollos tecnológicos en el ámbito de la IA Generativa se transfieran a los diferentes sectores, de manera que las soluciones generen nuevas oportunidades, sean sostenibles y refuercen la resiliencia industrial”.
A largo plazo, Daniel Gil, AI & Automation Specialist en Sabio, argumenta que "a nivel empresarial, el modelo productivo va a cambiar radicalmente en los empleos de cuello blanco, donde la IA generativa estará en todos los puestos de trabajo: aplicaciones ofimáticas (para la creación de documentos, presentaciones, informes, análisis de hojas de cálculos, creación de dashboards en BI) generación de aplicaciones (o código) a través de lenguaje natural, asistentes virtuales que tendrán acceso a toda los datos de una empresa (documentación, leyes, reglamentos, artículos, datos financieros…) y darán respuesta inmediata basada en ellos, soluciones ad hoc para recursos humanos o departamentos financieros para automatizar cualquier proceso donde haya datos, etc.".