El Consell d'Europa (no confondre amb el Consell Europeu) és una organització internacional fundada el 1949 i composta per 46 estats membres – principalment europeus-, sent el Canadà, la Santa Seu, Israel, el Japó, Mèxic i els Estats Units països observadors. Com a tal, és independent de la Unió Europea. El seu objectiu principal és promoure la democràcia, els drets humans i l'estat de dret al continent europeu. Amb seu a Estrasburg, França, aquesta organització ha exercit un paper fonamental en el desenvolupament de normes internacionals, com el Conveni Europeu de Drets Humans. En l'àmbit digital, el Consell d'Europa treballa amb intensitat per garantir que les tecnologies emergents, inclosa la intel·ligència artificial (IA), respectin aquests valors fonamentals.

En aquest context, el Consell ha desenvolupat la metodologia HUDERIA, un marc tecniconormatiu dissenyat per avaluar i mitigar els riscos relacionats amb els drets humans, la democràcia i l'estat de dret en el desenvolupament i ús de sistemes d'IA. HUDERIA (acrònim de Human Rights, Democracy, and Rule of Law Impact Assessment for AI Systems) és una eina metodològica dissenyada per identificar, avaluar i mitigar els possibles riscos que els sistemes d'IA puguin representar per als drets humans, la democràcia i l'estat de dret. Aquest enfocament té per objectiu garantir que aquests sistemes es desenvolupin i utilitzin de manera ètica i responsable, alineant-se amb els valors fonamentals del Consell d'Europa i del Conveni Europeu de Drets Humans.

Estructura de la metodologia

HUDERIA s'organitza en diverses etapes que vertebren l'avaluació d'impacte:

  1. Identificació de riscos inicials:
    • En aquesta etapa s'examina el context del sistema d'IA, la seva finalitat, i les parteix implicades (desenvolupadors, responsables del desplegament, usuaris).
    • A més, s'identifiquen els drets fonamentals que poden veure's potencialment afectats, com la privacitat, la no-discriminació o la llibertat d'expressió.
  2. Avaluació de l'impacte pròpiament dita:
    • En aquesta part s'avaluen els riscos en les tres dimensions principals:
      • Drets humans: avaluació dels possibles riscos de discriminació, violació de privacitat, o afectacions a la dignitat humana.
      • Democràcia: avaluació dels possibles impactes en la participació ciutadana, la llibertat d'informació i el pluralisme.
      • Estat de dret: avaluació de les possibles interferències o distorsions a la independència judicial, en l'accés a la justícia i en processos democràtics.
  3. Mitigació i recomanació de mesures:
    • Aquesta fase proporciona directrius específiques per mitigar els riscos identificats, tals com implementar mecanismes de supervisió humana, millorar la transparència dels algoritmes i realitzar auditories periòdiques.
    • En la mateixa es promou l'ús de principis ètics com la reaplicabilitat, la responsabilitat i l'equitat.
  4. Supervisió i control continus:
    • S'estableix un procés de seguiment dinàmic per reavaluar contínuament els riscos tal com evolucioni el sistema d'IA o canviïn les condicions de l'entorn en què es desplega.

Els principis que complementen a l'eina

HUDERIA combina eines pràctiques amb principis ètics per garantir la seva aplicabilitat:

  • Principi de precaució: aquest principi indica que davant d'incerteses tècniques o legals es prioritzaran mesures que minimitzin els riscos.
  • Avaluació dinàmica: segons el qual els riscos són reavaluats durant el cicle de vida del sistema, des del seu disseny fins a la seva implementació i posta en producció.
  • Transparència i participació: aquest principi busca implicar múltiples parts interessades (governs, empreses, societat civil i ciutadans) en el procés d'avaluació del sistema d'IA.
  • Enfocament interdisciplinari: aquest principi suggereix la necessitat de combinar les perspectives legals, tècniques i socials per abordar els riscos de manera integral i efectiva.

Objectiu d'HUDERIA

El propòsit d'HUDERIA és proporcionar una metodologia pràctica que ajudi els estats, organitzacions i empreses a garantir que el desenvolupament i ús de sistemes d'IA no comprometi els valors fonamentals del Consell d'Europa. Aquest marc busca fomentar la confiança pública en aquestes tecnologies, promovent un entorn digital, ètic, just i respectuós dels drets fonamentals.

Implicacions amb l'AI Act

El Reglament IA imposa una obligació substantiva per a certs responsables del desplegament, en concret, els organismes de Dret públic, o entitats privades que presten serveis públics, els quals, segons l'art. 27, hauran de dur a terme una avaluació de l'impacte que la utilització dels esmentats sistemes pot tenir en els drets fonamentals. S'afegeixen els elements i els requisits que tal avaluació haurà de complir. Finalment, s'estableix al mateix article que per complir aquesta obligació, l'Oficina d'IA elaborarà un model de qüestionari, també mitjançant una eina automatitzada, a fi de facilitar que els responsables del desplegament compleixin les seves obligacions. Entenem que molt possiblement la metodologia HUDERIA pugui ser un element a ser tingut en compte en l'elaboració de l'esmentat model de qüestionari.