La Llei d'IA pretén esdevenir un marc global i una palanca per al màrqueting territorial europeu, mitjançant l'establiment de condicions de funcionament basades en principis ètics. Les empreses que integren o despleguen IA ja s'han de preparar per als canvis introduïts pel nou Reglament europeu. "Aquesta llei històrica, la primera d'aquest tipus al món, respon a un repte tecnològic global i crea oportunitats per a les nostres societats i economies. Amb la Llei d'IA, Europa destaca la importància de la confiança, la transparència i la responsabilitat en el tractament de les noves tecnologies, alhora que garanteix que aquesta tecnologia en ràpida evolució pugui prosperar i impulsar la innovació europea”, va declarar Mathieu Michel, secretari d'Estat belga responsable de la digitalització, simplificació administrativa i protecció de la intimitat, arran de l' adopció del text pel Consell d'Europa .

El reglament que estableix normes harmonitzades sobre intel·ligència artificial va trigar només 3 anys a ser aprovat formalment pel Consell. Després d'haver estat signat molt aviat pels presidents del Parlament Europeu i del Consell, l'acte legislatiu es publicarà al Diari Oficial de la UE en els propers dies i entrarà en vigor als vint dies d'aquesta publicació. La nova regulació s'aplicarà, i es tracta d'una innovació, 6 mesos després de la seva entrada en vigor, per a determinats usos de la IA que presentin un risc inacceptable. "És important preveure l'aplicació de prohibicions per tenir en compte riscos inacceptables i tenir efecte en altres procediments, per exemple en dret civil", especifica el Reglament.

Terminis i condicions

Les disposicions relatives als òrgans notificats i l'estructura de govern s'han d'aplicar 12 mesos després de la publicació del text, així com les obligacions per als proveïdors de models d'IA d'ús general. A més, els codis de bones pràctiques haurien d'estar preparats com a màxim 9 mesos després de la data d'entrada en vigor. La resta de mesures entraran en vigor dos anys després de la publicació. El Reglament forma part d'un paquet normatiu destinat a estimular la innovació. No s'aplica als sistemes utilitzats exclusivament amb finalitats militars i de defensa o de seguretat nacional, així com amb finalitats d'investigació.

Així doncs, la Llei d'IA classifica quatre tipus d'intel·ligència artificial en funció del risc: inacceptable, alta, limitada, mínima o no. Els sistemes de risc inacceptable inclouen aquells dirigits a avaluacions socials, perfils, incitació a comportaments perillosos mitjançant dispositius d'interacció o tècniques subliminals per sota del llindar de consciència d'una persona per alterar substancialment el seu comportament i causar un dany físic o psicològic, o la identificació biomètrica remota "en temps real". sistemes en espais públics amb finalitats policials (amb determinades excepcions). Els sistemes d'alt risc afecten generalment a sectors crítics o de vital importància. Per exemple, les tecnologies d'IA del transport que poden posar en perill la vida i la salut dels ciutadans; tecnologies d'IA utilitzades en l'educació o l'ocupació; tecnologies utilitzades en components de seguretat del producte; serveis públics i privats essencials com l'avaluació del risc de crèdit; tecnologies d'IA utilitzades en l'aplicació de la llei; Tecnologies d'IA utilitzades en la gestió de la migració, l'asil i els controls fronterers (per exemple, verificar l'autenticitat dels documents de viatge); Tecnologies d'IA utilitzades en l'administració de justícia i processos democràtics. Els sistemes de risc limitat inclouen chatbots o eines de suport a la presa de decisions. Les solucions de risc mínim són, per exemple, els videojocs amb intel·ligència artificial o els filtres de correu brossa.

Per evitar matar iniciatives d'IA, el text estableix un marc legal favorable a la innovació i orientat a promoure l'aprenentatge normatiu basat en l'evidència. El text preveu "caixes de sorra" reguladores d'IA que permeten un entorn controlat per al desenvolupament, prova i validació de sistemes innovadors d'IA. També haurien de permetre provar sistemes innovadors d'IA en condicions reals. El text crea diverses estructures. Una Oficina Europea d'Intel·ligència Artificial (Oficina d'IA), que serà l'encarregada de facilitar el compliment i reduir la càrrega administrativa dels desplegadors d'IA. Dins de la Comissió, és responsable de fer complir les normes comunes a tota la UE. 

Les infraccions de la llei d'IA seran sancionades en funció d'un percentatge de la facturació anual global de l'empresa o d'una quantitat predeterminada, el que sigui més gran. “  L'incompliment de la prohibició de les pràctiques d'IA a què es refereix l'article 5 està subjecte a sancions administratives de fins a 35.000.000 d'euros o, si l'autor del delicte és una empresa, fins al 7% de la seva facturació mundial anual total assolida durant el període. l'exercici anterior, el que sigui més elevat. Es poden combinar altres sancions penals o administratives. Les pimes i startups estaran subjectes a sancions administratives proporcionals. Abans del desplegament d'un sistema d'IA d'alt risc per part de determinades entitats que presten serveis públics, caldrà avaluar l'impacte en els drets fonamentals. Els sistemes d'IA d'alt risc hauran d'estar registrats en una base de dades de la UE accessible a tothom.