Decálogo para aplicar el Reglamento de Inteligencia Artificial en el ámbito laboral

Una guía práctica para cumplir las nuevas obligaciones en el uso de IA en el ámbito laboral, identificando los principales retos y proponiendo soluciones para una implementación responsable.

Anna Ginès i Fabrellas

Este artículo es parte del informe Estado del mercado laboral español 2024, elaborado por InfoJobs y Esade.


La introducción de inteligencia artificial en las empresas constituye un objetivo estratégico de transformación digital de la Unión Europea. La Década Digital de la Unión Europea establece objetivos en infraestructuras, competencias digitales, empresas y servicios públicos para 2030. En materia de inteligencia artificial, el objetivo fijado es que el 75 % de las empresas utilicen sistemas de IA en sus operaciones; un reto ambicioso considerando que en 2024 el porcentaje fue del 8 % en la Unión Europea (9,2 % en el caso de España). 

Un ámbito en expansión para el uso de sistemas de inteligencia artificial es el laboral. La tecnología inteligente está transformando las relaciones laborales al permitir nuevas formas de gestión de procesos empresariales, desde el reclutamiento automatizado hasta la asignación automatizada de tareas o la evaluación y supervisión del desempeño. 

Con el fin de garantizar una transformación digital sostenible y centrada en las personas, este proceso de incorporación de inteligencia artificial en las empresas debe realizarse respetando el Reglamento de Inteligencia Artificial, que establece un régimen de aplicación escalonado desde febrero de 2025 hasta agosto de 2027. 

El Reglamento tiene por objeto establecer normas armonizadas en materia de inteligencia artificial en la Unión Europea para fomentar el desarrollo y utilización de sistemas de confianza y centrados en las personas, garantizando la protección de su salud, seguridad y derechos fundamentales

Además, utiliza un enfoque basado en el riesgo, clasificando los sistemas de inteligencia artificial en función del nivel que generan (riesgo inaceptable, alto riesgo y riesgo limitado) y, en atención a ellos, se establecen obligaciones de información, transparencia y supervisión humana de los sistemas de inteligencia artificial. 

Sin embargo, la complejidad inherente a la tecnología y a la nueva normativa puede frenar el proceso de digitalización de las empresas. En este sentido, a continuación, se incluye un decálogo sobre la aplicación del Reglamento de Inteligencia Artificial en el ámbito laboral: 

  1. Identificación de sistemas de inteligencia artificial

    Es importante determinar cuándo un sistema debe ser calificado como inteligencia artificial —y, por tanto, resulta de aplicación el Reglamento—, y cuándo no. El Reglamento define al sistema de IA como “un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales». Tres elementos aparecen como claves para apreciar la existencia de inteligencia artificial: (i) sistema basado en una máquina, descartando procesos humanos, (ii) autonomía, para que el sistema pueda funcionar de forma independiente, y (iii) capacidad de inferencia, en el sentido que de la información de entrada recibida genere resultados de salida, como predicciones, contenidos, recomendaciones o decisiones. 

  2. Evaluación del nivel de riesgo

    Los sistemas de inteligencia artificial utilizados en el ámbito laboral, dado su potencial para “afectar de un modo considerable a las futuras perspectivas laborales y los medios de subsistencia de dichas personas y a los derechos” de las personas trabajadoras (considerando su Artículo 57), se clasifican generalmente como sistemas de alto riesgo. En concreto, se consideran como sistemas de alto riesgo los sistemas utilizados para (i) la contratación o selección de personas y (ii) para tomar decisiones de condiciones de trabajo, promoción, extinción del contrato, asignación de tareas en base al comportamiento o características personales, o para controlar y evaluar el rendimiento y conducta de las personas trabajadoras. 

    Además, algunos sistemas utilizados en el ámbito laboral se consideran prohibidos. Este es el caso de los dirigidos a inferir emociones en el ámbito de la relación laboral (salvo cuando se utilice con fines médicos o de seguridad) o características personales como la raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual, u orientación sexual. Cabe destacar que no se prohíbe todo sistema de reconocimiento facial en el ámbito laboral, sino solamente aquellos dirigidos a inferir emociones o a predecir información sensible de las personas. 

    Por otro lado, hay sistemas de IA utilizados en el ámbito laboral que se consideran de riesgo mínimo, como los chatbots. Sin embargo, es importante precisar que lo que determina el nivel de riesgo no es la tecnología en sí misma, sino el uso que se hace de ella. Así, cuando los chatbots son utilizados para tomar decisiones laborales —por ejemplo, en procesos de selección— deben considerarse sistemas de alto riesgo y, por tanto, cumplir con las obligaciones legales asociadas a tales sistemas. Similarmente, cuando los sistemas de inteligencia artificial se introducen como herramienta de trabajo para mejorar la productividad, para automatizar el proceso productivo o como control de calidad del producto o servicio ofrecido, en principio no tienen la calificación de sistemas de alto riesgo. Sin embargo, podrían serlo si la empresa los utiliza, además, para controlar y evaluar su rendimiento 

  3. Identificación del rol de la empresa

    El Reglamento atribuye obligaciones distintas para empresas proveedoras de sistemas de IA de alto riesgo y para las empresas responsables del despliegue, definidas como aquellas que los implementan. Sin embargo, las que desarrollan sus propios sistemas deben considerarse tanto empresas proveedoras como responsables del despliegue, debiendo cumplir con las obligaciones previstas para ambas. 

  4. Garantizar la transparencia y explicabilidad

    Los sistemas de IA de alto riesgo tienen que ser transparentes y explicables. Esto exige que las empresas proveedoras de sistemas deben diseñar y desarrollar sistemas para garantizar transparencia e interpretabilidad en su funcionamiento, que cuenten con unas instrucciones de uso sobre sus características, capacidades y limitaciones, y garanticen unos niveles apropiados de precisión, solidez y ciberseguridad. 

    Por su parte, las empresas que implementan dichos sistemas deben informar a las personas trabajadoras y a la representación legal de la plantilla de la utilización de sistemas de inteligencia artificial en el ámbito laboral (previa a su implementación), además de proporcionar una explicación clara y significativa del rol que ha jugado el sistema en un proceso de decisión y los principales elementos utilizados para adoptar la decisión. 

  5. Asegurar la supervisión humana

    Los sistemas de inteligencia artificial de alto riesgo deben diseñarse y desarrollarse de manera que puedan ser vigilados por personas humanas durante todo el proceso, con el fin de prevenir o reducir los riesgos para la salud, seguridad o derechos fundamentales de las personas. 

    La empresa responsable del despliegue deberá encomendar la supervisión del sistema a personas que tengan la competencia, formación y autoridad suficiente para entender las capacidades y limitaciones del sistema (por ejemplo, con vistas a detectar y resolver anomalías o problemas de funcionamiento); que sean conscientes de la tendencia a confiar en exceso en los resultados de los sistemas automatizados, y puedan interpretar correctamente los resultados del sistema, decidir no utilizarlo o descartar sus resultados e intervenir en su funcionamiento. El reto está en establecer mecanismos efectivos de supervisión humana, siguiendo las exigencias del Reglamento, sin desvirtuar la automaticidad del proceso. 

  6. Sistema de gestión de riesgos

    Las empresas que implementen sistemas de inteligencia artificial de alto riesgo deben incluir e implementar, durante todo el ciclo de vida del sistema, un sistema de gestión de riesgo. Este debe incluir la identificación y análisis de riesgos conocidos y previsibles derivados del sistema sobre la salud, seguridad y derechos fundamentales de las personas, y la adopción de medidas dirigidas a mitigarlos. 

  7. Evaluación de impacto de protección de datos personales

    La introducción de sistemas de inteligencia artificial debe ir acompañado del cumplimiento de las obligaciones de protección de datos personales derivadas del RGPD, destacándose la necesidad de respetar los principios de licitud, lealtad y transparencia, limitación de finalidad y minimización de datos, así como la obligación de realizar una evaluación de impacto. 

  8. Calidad de los datos y ausencia de discriminación

    Los datos utilizados en sistemas de inteligencia artificial de alto riesgo deben ser pertinentes, completos y suficientemente representativos. Será necesario examinar los datos “atendiendo a posibles sesgos que puedan afectar a la salud y la seguridad de las personas, afectar negativamente a los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida” y, en su caso, adoptar medidas adecuadas para prevenir y mitigar los sesgos identificados. 

  9. Formación y capacitación

    Las empresas deben garantizar que las personas responsables del despliegue de sistemas de inteligencia artificial tengan un nivel suficiente de alfabetización en la materia. 

  10. Legalidad, necesidad e impacto medioambiental

    El Reglamento de Inteligencia Artificial establece los requisitos que deben cumplir los sistemas de IA. Sin embargo, no determina la legalidad de su uso en un caso concreto, debiendo la empresa respetar la normativa en materia de protección de datos, igualdad y no discriminación, intimidad, prevención de riesgos laborales, etc. Así, por ejemplo, resultaría ilegal un sistema de control y evaluación del rendimiento de las personas trabajadoras que, a pesar de cumplir con las exigencias del Reglamento, aumente la intensidad del trabajo de tal manera que afecte negativamente a la salud mental o física de las personas. 

Finalmente, aunque no se menciona de forma específica en el Reglamento, es importante evaluar la necesidad de introducir un sistema de inteligencia artificial de alto riesgo en el ámbito laboral, considerando la existencia de alternativas menos invasivas, y analizar su impacto medioambiental. 

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.