El Model PIO, creat per l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), facilitarà el compliment de la Llei d’Intel·ligència Artificial de la Unió Europea (AI Act) que s’aprova aquest dijous, 1 d'agost. Tal com subratlla la Universitat de Girona "l’AI Act, la primera llei d’intel·ligència artificial de la Unió Europea, publicada al Diari Oficial de la Unió Europea el passat 12 de juliol, entrarà en vigor i, davant la complexitat d’aplicació de la nova llei AI Act, l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) ha desenvolupat el nou Model PIO (Principis, Indicadors i Observables)". Aquesta, pretén ser una eina que afavoreix el compliment de la normativa sobre intel·ligència artificial i la regulació actual sobre riscos i drets associats a la IA a través d’un procés de verificació exhaustiu.
Com complir el Model PIO?
El Model PIO permet identificar accions adequades o inadequades i sensibilitzar a través dels usos ètics de les dades i sistemes d’IA. Aquest projecte està alineat amb la creixent adopció d’estàndards internacionals i situa les consideracions ètiques com una peça clau de les solucions tècniques. Aquesta nova versió substitueix una beta anterior que proporcionava recomanacions d’acord amb 7 principis ètics fonamentals (transparència, justícia, responsabilitat, seguretat, privacitat, autonomia i sostenibilitat). La nova eina d’avaluació es fonamenta en l’anterior model, però compta amb l’avantatge que està harmonitzada amb els requisits legislatius de l’AI Act i d’altres legislacions sobre dades i drets. A més a més, conté recursos com catàlegs, exemples i noves funcionalitats que permeten avançar cap a una IA responsable.
En un informe elaborat per la Universitat de Girona, es conclou que "la primera Llei d’Intel·ligència Artificial de la Unió Europea coneguda com a AI Act representa una legislació pionera en la regulació de la intel·ligència artificial. Aquesta llei permet, generalment, regular l'accés al mercat i de productes, especialment per a tecnologies d’IA considerades amb un major risc, com la tecnologia d’IA aplicada en l’àmbit de la salut. Tanmateix, també defineix els principis generals de conducta o comportament per a utilitzar la IA, així com el dret a la informació a les persones afectades per a aquesta tecnologia". D'altra banda, l’AI Act contrasta amb el Reglament General de Protecció de Dades (GDPR), que regula el tractament de dades personals i els drets dels subjectes de dades. En canvi, l’AI Act regula les mesures d'acompanyament que s'han d'implementar en cas que les tecnologies d’IA es considerin de risc.
A partir d’aquí estableix quatre categories de risc. En primer lloc, aquells que fan referència a un conjunt limitat d'usos de la IA que acaben sent prohibits a causa del seu impacte nociu. En segon lloc, hi ha un nombre limitat de casos d'ús en què els sistemes d'IA s'han de considerar d'alt risc perquè poden tenir un impacte advers en la salut, la seguretat o els seus drets fonamentals de les persones. En tercer lloc, hi ha una sèrie de sistemes d'IA que presenten riscos limitats a causa de la seva falta de transparència, com les falsificacions o el contingut sintètic, i que estaran subjectes a requisits d'informació i transparència per tal de fomentar la confiança. Finalment, es permet l'ús de sistemes que presenten un risc mínim per a les persones, com filtres de correu brossa assistits per una IA, i que compleixin amb la legislació aplicable sense obligacions legals addicionals.