El profundo despliegue de la inteligencia artificial (IA) en todos los ámbitos de la actividad económica y social ha provocado un amplio debate entre el favorecimiento de su libre desarrollo por las enormes bondades que aporta y la necesaria regulación del modo como se implante por los indiscutibles riesgos y efectos negativos de su utilización descontrolada. Como respuesta a este dilema se acaba de aprobar en el seno de la Unión Europea el Reglamento de inteligencia artificial, que va a tener una enorme trascendencia en el inmediato futuro.

El objetivo expreso del Reglamento es el actuar, en clave de equilibrio, entre el fomento de la IA y el control que evite sus peligros para las personas. De un lado, el apoyo a la innovación, fomentando la expansión de los sistemas de IA en aras de un desarrollo económico más potente. De otro lado, el establecimiento de instrumentos de garantía que eviten sus efectos perjudiciales para todos sus afectados. Por tanto, mejorar el funcionamiento del mercado interior, de un lado, promoviendo el desarrollo de la inteligencia artificial, y, de otro lado, el desarrollo de controles fiables que garanticen la protección de la salud, la seguridad y los derechos fundamentales garantizados en la Carta de los Derechos Fundamentales de la Unión Europea.

Se trata de una norma de enorme trascendencia, por ser la primera de carácter supranacional que aborda con enorme amplitud el desarrollo de la IA desde una perspectiva transversal, de impacto sobre el conjunto de la actividad económica y empresarial, incluida la vertiente laboral. En igual medida especialmente impactante por su naturaleza de Reglamento, por ser de incorporación automática a la normativa nacional, sin necesidad de transposición como se exige para las Directivas.

El Reglamento europeo sobre IA afecta de manera particular a su despliegue en el marco del ejercicio de los poderes empresariales respecto de sus empleados

Por su carácter transversal respecto de todas las competencias de la Unión Europea, afecta de manera directa a las relaciones laborales y, en particular, a su despliegue en el marco del ejercicio de los poderes empresariales respecto de sus empleados. Ello abarca todas las esferas, desde los procesos de selección y la contratación, hasta los despidos, pasando por el ejercicio de los poderes organizativos, de control y disciplinarios de las empresas respecto de sus empleados; incluso, hay mención expresa a la vertiente de la actividad sindical, con garantías respecto de la negociación colectiva y la huelga. Más aún, por ese carácter transversal, el Reglamento desborda el ámbito tradicional de la política social europea, centrada en el trabajo subordinado, para extenderse también al trabajo autónomo, especialmente al trabajo autónomo vulnerable, en relación con sus empresas clientes.

La intervención de garantía, que se defiende de una IA “centrada en el ser humano y fiable”, se materializa en el establecimiento de diversos niveles de riesgo, para actuar sobre cada uno de ellos de modo más o menos incisivo en función precisamente de la intensidad del riesgo, en atención a su potencial perjuicio y a su gravedad.

Las prácticas más extremas, de superior riesgo, se califican como “inaceptables” y, como tales, quedan expresamente prohibidas. Así, se identifican hasta un total de 8 prácticas como inaceptables, entre las que sobresalen, por su repercusión en el trabajo, las siguientes: 1) las que utilicen técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el efecto de alterar de manera sustancial el comportamiento de una persona o grupo; 2) las que exploten vulnerabilidades de una persona o grupo derivadas de su edad o discapacidad, o de una situación social o económica específica; 3) las que pretendan evaluar o clasificar a personas o grupos atendiendo a su comportamiento social o a características personales para provocarles un trato perjudicial o desfavorable; 4) las que detecten emociones de una persona en los lugares de trabajo, salvo las justificadas por motivos médicos o de seguridad; 5) los sistemas de categorización biométrica de las personas para deducir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual. En estas condiciones, a partir de ahora, las empresas deben evaluar con sumo cuidado el despliegue que realicen de la IA, con vistas a asegurarse de que no incurran en ninguna de estas prácticas prohibidas.

Se identifican un total de 8 prácticas inaceptables, de superior riesgo, y como tales, quedan expresamente prohibidas

En un segundo nivel, se identifican los que se califican como sistemas de alto riesgo, donde, aparte de una descripción general de su caracterización, se recoge expresamente en un anexo un listado de los que se consideran de este nivel. Algunas de las prácticas enumeradas en dicho anexo presentan una incidencia directa sobre los poderes empresariales en el ámbito del trabajo, incluido el acceso al autoempleo. Entre ellos, destacaría las siguientes: 1) sistemas de IA destinados a la contratación y la selección, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos; 2) sistemas de IA destinados a la adopción de decisiones que afecten a las condiciones laborales, a la promoción o despido, a la asignación de tareas a partir de comportamientos, rasgos o características personales, o bien para supervisar y evaluar el rendimiento y el comportamiento de los trabajadores. Aparte de ello, con carácter general, aunque de evidente repercusión sobre la gestión del empleo, se incluyen también dentro de los sistemas de IA de alto riesgo los que utilicen la biometría, en la que medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable.

Respecto de estos sistemas de alto riesgo, aun permitiéndose su despliegue, se someten a estrictos controles antes de su comercialización, entre los que destaca la realización de una precisa evaluación y mitigación de los riesgos, especialmente aquellos que puedan provocar tratamientos discriminatorios, registro de la actividad y trazabilidad de los resultados, con especial exigencia de supervisión humana a través de medidas adecuadas. En particular, la evaluación debe dirigirse a examinar posibles sesgos que puedan afectar a la salud y la seguridad de las personas, o bien afectar negativamente a los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida.

Los empleadores deben informar tanto a los sindicatos como a los trabajadores individualmente afectados de que se encuentran expuestos a la utilización del sistema de IA de alto riesgo

Respecto de la fase sucesiva, de la implantación de sistemas de IA, se establecen importantes obligaciones al responsable de su despliegue, que, a efectos laborales, no es otro que el empleador. En esta fase la idea fuerza es la de la transparencia, de la correcta y comprensible información respecto de su desarrollo. Como regla específica en el ámbito de lo laboral se establece que, antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los empleadores deben informar tanto a los representantes de los trabajadores como a los trabajadores individualmente afectados de que se encuentran expuestos a la utilización del sistema de IA de alto riesgo. A estos efectos, debe recordarse que la legislación española ya establece un deber de información a la representación de los trabajadores en la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles. Más aún, los representantes de los trabajadores en la empresa tienen el derecho a ser consultados con carácter previo a la adopción de decisiones de reestructuración empresarial que comporten alteraciones en el empleo o en las condiciones de trabajo, especialmente cuando comportan la introducción de nuevas tecnologías. Con el Reglamento europeo la información se amplía en su contenido y, sobre todo, como novedad debe ser transmitida directamente a cada trabajador afectado.

Finalmente, como es habitual en el Derecho europeo, el Reglamento contempla todo un abanico de sanciones, para las conductas de incumplimiento de las obligaciones y controles establecidos, especialmente de carácter económico de importante cuantía, pero que también pueden ser de otro tipo. El régimen concreto de las sanciones y otras medidas de ejecución se remite a las legislaciones propias de los Estados miembros; al efecto, tendrán importante protagonismo no solo las instancias generales de garantía de los sistemas de IA sino también, por lo que afecta a lo laboral, a la potestad sancionadora administrativa a través de la Inspección de trabajo. La clave es que se trate de sanciones proporcionadas y disuasorias.

En definitiva, nos enfrentamos a una normativa muy novedosa, a la que deberemos estar atentos en cuanto a los resultados que produce en el despliegue de los sistemas de IA y como instrumento para conjurar sus riesgos frente a posibles violaciones de los derechos fundamentales y libertades públicas en el ámbito laboral.