Las dudas sobre los usos e impactos de las nuevas herramientas de inteligencia artificial (IA) como el famoso ChatGPT empiezan a cernir en varias áreas de la sociedad, incluyendo la seguridad pública. La Europol, la Agencia de la Unión Europea (UE) para la Cooperación Policial, ha advertido que estas herramientas pueden ser de gran ayuda para la ciberdelincuencia. En un informe, la agencia europea muestra el "lado oscuro" que pueden herramientas como ChatGPT, donde se reconoce que se presenta un "panorama sombrío" y se presentan nuevos retos legislativos.
"Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. El modelo puede utilizar para recopilar más información en general que pueda facilitar las actividades terroristas, como la financiación del terrorismo o el intercambio anónimo de archivos," se alerta en el texto y se añade: "Es posible crear herramientas básicas para una variedad de propósitos maliciosos. Aunque solo son básicas, eso proporciona un comienzo para el delito cibernético, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque al sistema de una víctima".
Sin embargo, el ChatGPT tiene ciertas herramientas para tratar de evitar comportamientos maliciosos, pero como pasar con todas las tecnologías, y en especial en las que todavía están en construcción, están lejos de ser infalibles. Es decir, el ChatGPT tiene un escudo lleno de agujeros que los ciberdelincuentes pueden utilizar como mejor convenga. La protección solo funciona cuando la herramienta identifica que lo que se quiere hacer es malicioso o un crimen, pero si se le dan indicaciones que se dividen en pasos individuales, es trivial eludir estas medidas de seguridad.
Un usuario con conocimientos más avanzados también puede explotar las capacidades mejoradas de ChatGPT para perfeccionar todavía más o incluso automatizar modus operandi sofisticados de los ciberdelincuentes.
Preocupación por el avance de la IA
Expertos tecnológicos, científicos, políticos y empresarios se han unido para firmar conjuntamente una carta que alerta de los peligros de desarrollo desenfrenado de la inteligencia artificial (IA). Sin embargo, la carta no es solo una queja, también es propositiva. Se propone que los experimentos actuales d'IA se suspendan durante seis meses. ¿Por qué? Para tener tiempo para valorar los potenciales riesgos de esta tecnología y generar un marco legal sólido en torno a la IA. Así lo firman personalidades como el director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak, los investigadores norteamericanos Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras.