El Modelo PIO, creado por el Observatorio de Ética en Inteligencia Artificial de Catalunya (OEIAC), facilitará el cumplimiento de la Ley de Inteligencia Artificial de la Unión Europea (AY Act) que se aprueba este jueves, 1 de agosto. Tal como subraya la Universidad de Girona "el AY Act, la primera ley de inteligencia artificial de la Unión Europea, publicada en el Diario Oficial de la Unión Europea el pasado 12 de julio, entrará en vigor y, ante la complejidad de aplicación de la nueva ley AY Act, el Observatorio de Ética en Inteligencia Artificial de Catalunya (OEIAC) ha desarrollado el nuevo Modelo PIO (Principios, Indicadores y Observables)". Esta, pretende ser una herramienta que favorece el cumplimiento de la normativa sobre inteligencia artificial y la regulación actual sobre riesgos y derechos asociados a la IA a través de un proceso de verificación exhaustivo.

¿Cómo cumplir el Modelo PIO?

El Modelo PIO permite identificar acciones adecuadas o inadecuadas y sensibilizar a través de los usos éticos de los datos y sistemas d'IA. Este proyecto está alineado con la creciente adopción de estándares internacionales y sitúa las consideraciones éticas como una pieza clave de las soluciones técnicas. Esta nueva versión sustituye una beta anterior que proporcionaba recomendaciones de acuerdo con 7 principios éticos fundamentales (transparencia, justicia, responsabilidad, seguridad, privacidad, autonomía y sostenibilidad). La nueva herramienta de evaluación se fundamenta en el anterior modelo, pero cuenta con la ventaja que está armonizada con los requisitos legislativos del AY Act y de otras legislaciones sobre datos y derechos. Además, contiene recursos como catálogos, ejemplos y nuevas funcionalidades que permiten avanzar hacia una IA responsable.

En un informe elaborado por la Universidad de Girona, se concluye que "la primera Ley de Inteligencia Artificial de la Unión Europea conocida como AY Act representa una legislación pionera en la regulación de la inteligencia artificial. Esta ley permite, generalmente, regular el acceso al mercado y de productos, especialmente para tecnologías de IA consideradas con un mayor riesgo, como la tecnología de IA aplicada en el ámbito de la salud. Sin embargo, también define los principios generales de conducta o comportamiento para utilizar la IA, así como el derecho a la información a las personas afectadas para esta tecnología". Por otra parte, el AY Act contrasta con el Reglamento General de Protección de Datos (GDPR), que regula el tratamiento de datos personales y los derechos de los sujetos de datos. En cambio, el AY Act regula las medidas de acompañamiento que se tienen que implementar en caso de que las tecnologías de IA se consideren de riesgo.

A partir de aquí establece cuatro categorías de riesgo. En primer lugar, aquellos que hacen referencia a un conjunto limitado de usos de la IA que acaban estando prohibidos a causa de su impacto nocivo. En segundo lugar, hay un número limitado de casos de uso en que los sistemas de IA se tienen que considerar de alto riesgo porque pueden tener un impacto adversos en la salud, la seguridad o sus derechos fundamentales de las personas. En tercer lugar, hay una serie de sistemas de IA que presentan riesgos limitados a causa de su falta de transparencia, como las falsificaciones o el contenido sintético, y que estarán sujetos a requisitos de información y transparencia con el fin de fomentar la confianza. Finalmente, se permite el uso de sistemas que presentan un riesgo mínimo para las personas, como filtros de correo basura asistidos por una IA, y que cumplan con la legislación aplicable sin obligaciones legales adicionales.