Riesgos concretos de la IA y posible regulación efectiva
La gestión algorítmica plantea riesgos significativos en el ámbito laboral. Por un lado, facilita la discriminación al basarse en patrones poco transparentes. Esto dificulta que las «víctimas» puedan detectar y probar el trato desigual. Por otro lado, incrementa la intensidad del trabajo y reduce la autonomía, hecho que repercute negativamente en la salud física y mental del personal. A la vez, la capacidad de recopilar y procesar datos de manera masiva otorga a la empresa un control exhaustivo. Así, el poder de negociación de las personas trabajadoras disminuye al dificultar su participación en la distribución de los incrementos de productividad. La tecnología, además, se utiliza de manera ofensiva para vigilar y presionar a la baja los salarios. Con algoritmos cada vez más avanzados, es posible predecir y coartar la aparición de líderes sindicales o de reclamaciones colectivas. Este fenómeno se intensifica con la externalización productiva, dado que las empresas principales mantienen un control estricto a través de plataformas tecnológicas, pero eluden responsabilidades legales. Para afrontar estos retos, el texto propone la obligación de negociar y acordar con los representantes de las personas trabajadoras, así como la implementación de auditorías recurrentes de los algoritmos como forma de proteger la dignidad y los derechos laborales.
Algorithmic management poses significant risks in the workplace. On one hand, it facilitates discrimination by relying on opaque patterns, making it difficult for “victims” to detect and prove unfair treatment. On the other hand, it intensifies work pressure and diminishes autonomy, which harms the physical and mental health of staff. Simultaneously, the ability to collect and process data in bulk provides the company with extensive control. Consequently, workers’ bargaining power diminishes, making it harder to participate in the distribution of productivity gains. Technology is also used offensively to monitor and press down on wages. With increasingly advanced algorithms, predicting and restricting the emergence of union or collective claims leaders becomes feasible. This phenomenon is exacerbated by productive outsourcing, as major companies maintain strict control through technological platforms while evading legal liabilities. To address these challenges, the text proposes an obligation to negotiate and agree with workers’ representatives, along with the implementation of recurring audits of algorithms to protect dignity and labour rights.
Actualmente, en materia de algoritmos, la doctrina se ha centrado en las posibilidades de discriminación. Existe una importante doctrina que ha puesto de relieve estos peligros (Rivas, 2020, pág. 8). Nuestro sistema de protección legal contra la discriminación no está preparado para este nivel de universalización y sistematización de la discriminación. En primer lugar, el nivel de protección actual es individual. Este hecho significa que la persona víctima de discriminación tiene que ser capaz de detectar que ha sido discriminada para reclamar. Esto se dificulta sobremanera dado que la discriminación algorítmica es más abstracta, poco transparente y poco intuitiva, sutil e intangible. En segundo lugar, porque con el actual sistema de prueba en juicio de la discriminación, la persona o empresa acusada de discriminar podrá justificar la discriminación a través de correlacionarla con otras variables. Siendo la principal propiedad y capacidad de los algoritmos encontrar patrones y conexiones que son irreconocibles para los humanos, los juicios por discriminación se pueden convertir en «una batalla de números» que implícitamente favorecerá a aquel de los dos sujetos (demandante o demandado) que sea capaz de producir las estadísticas más convincentes. En efecto, con los algoritmos, el desequilibrio procesal aumentará en favor de quién tenga los datos y la potencia computacional para «exprimirlos».
Por esta razón, las demandas individuales antidiscriminación pueden dejar de ser efectivas. En este sentido, se propone una regulación que obligue a compartir información con los representantes de los trabajadores (actualmente el RGPD, art. 35, obliga a un impact assesment, pero después de la realización de este no tiene obligación de ser compartido, lo que lo hace inefectivo) y que obligue al hecho de que toda implantación de un sistema algorítmico venga precedida por un acuerdo con los representantes de los trabajadores en materia de salvaguardas antidiscriminación (Todolí, 2022a). Este acuerdo podría contemplar la obligación de someter al algoritmo a una auditoría recurrente –porque los algoritmos evolucionan y cambian en el tiempo– que analice el nivel de sesgos. Otra solución normativa, podría ser obligar a los algoritmos que dirigen trabajadores a estar sometidos a registro y auditoría pública mediante profesionales y organismos suficientemente dotados para cumplir este cometido.
La doctrina ha acreditado bien los riesgos específicos que puede implicar para la salud estar bajo las órdenes de un algoritmo (Dembe, Erickson, Delbos y Banks, 2005; Fernández Avilés, 2017; Rodríguez-Rico, 2018). La reducción de autonomía y el incremento de la intensidad en el trabajo son resultado directo de la dirección algorítmica. Los datos señalan un incremento de accidentes de trabajo y una serie de riesgos físicos y psicológicos derivados de este sistema de gestión de los trabajadores.
En este contexto, se propone la necesidad de una regulación específica para proteger la salud y la seguridad de los trabajadores gestionados por una IA. Los riesgos mencionados pueden reducirse si se tienen en cuenta en la programación del algoritmo y la ley debe imponer y controlar estas características. En este sentido, la normativa ha de imponer una correcta programación del algoritmo para que contemple estos riesgos laborales y de salud –entre otras, el derecho a la intimidad–. Es decir, al igual que los supervisores deben estar formados en prevención de riesgos para poder hacer su trabajo, el algoritmo también debe estar programado para ponderar los riesgos laborales en el trabajo –y si esta programación no existe, se deben tomar medidas para evitar que el algoritmo sea utilizado para dirigir a los trabajadores–.
En concreto, el algoritmo tiene que ser transparente, adaptarse a las capacidades reales de los trabajadores y dejarles un cierto margen de autonomía y respetar su intimidad. También debería plantearse la posibilidad de adoptar el principio de precaución en el uso de la IA para dirigir a los trabajadores. En definitiva, se propone la posibilidad de que el algoritmo (su programación y sus programadores) esté obligado a valorar cualquier elemento que suponga un riesgo para la seguridad y la salud de los trabajadores.
Algunos datos parecen mostrar una tendencia de «gran desacoplamiento» entre las mejoras de productividad y los salarios con la aplicación de los sistemas de dirección algorítmica. Así, en la empresa Unified Grecers, una cadena de supermercados, cuando instaló una gestión algorítmica de tareas, aumentó las ventas un 36 % y redujo los pagos salariales un 25 %. En la empresa UPS, de reparto de paquetería, con la monitorización electrónica y la gestión algorítmica de tiempo y rutas, entre 2005 y 2015, el número de entregas realizadas en un día por cada repartidor pasó de 85 a 100. Sin embargo, estos aumentos de productividad no se vieron compartidos con los propios trabajadores, cuyo salario se estancó.
La regulación de la IA tiene que realizarse bajo la hipótesis de que una de las funciones de esta tecnología consiste precisamente en ser usada para reducir el poder de negociación de los trabajadores y poder extraer parte de las ganancias que merecidamente tendrían que ir a estos por su trabajo. Esto se hace mediante dos mecanismos. Por un lado, aumentando la información que la empresa tiene (monitorización, control, vigilancia –incluyendo predecir lo que el trabajador está pensando–), lo que le otorga mayor poder sobre el trabajador. Por otro lado, la dirección algorítmica reduce la efectividad de las protecciones laborales (reglas antidiscriminación sindical, lo que facilita la externalización productiva, etc.) establecidas históricamente para reequilibrar el poder de negociación entre capital y trabajo. Con la tecnología se «sortean» estas regulaciones protectoras, debilitando el poder de negociación de los trabajadores, hundiendo los salarios y, en general, precarizando el trabajo.
Tal como el premio nobel de economía Joseph Stiglitz estableció en su teoría de los Salarios de eficiencia (Shapiro y Stiglitz, 1984; Todolí, 2016), los empresarios tienen incentivos para pagar salarios superiores a los del mercado como manera de motivar a los trabajadores para esforzarse y cumplir las instrucciones del empresario. Así, el empresario históricamente ha sustituido un control exhaustivo (que tradicionalmente era costoso) de la actividad laboral por unos mejores salarios que incentivan a los trabajadores a cumplir sin defraudar. Sin embargo, conforme los controles tecnológicos son más baratos gracias al procesamiento algorítmico de datos –y la jurisprudencia más permisiva (ved Todolí, 2022b)–, los empresarios tendrán menos incentivos para pagar mejores salarios, prefiriendo vigilar exhaustivamente al trabajador.
De hecho, actualmente, las empresas ya no están usando sus poderes de vigilancia y control sobre el trabajador de manera defensiva (para que el trabajador cumpla sus obligaciones laborales), sino de manera ofensiva. Es decir, se recopila la máxima información sobre el trabajador y su trabajo (mediante videocámaras, GPS, registros y monitorización del ordenador, pulseras electrónicas, tarjetas electrónicas, etc.) para poder exigirle más al trabajador. En este sentido, se ve claramente cómo el aumento del uso de la tecnología está estropeando el equilibrio interno del contrato de trabajo.
También existe la posibilidad de usar los algoritmos para la determinación salarial individual, presionando a la baja los salarios de los trabajadores más precarios. Los algoritmos pueden predecir qué trabajadores están en peor situación para abandonar la empresa, evitando subidas salariales a estos trabajadores. Incluso, las tecnologías actuales pueden conseguir «predecir» cuál es el salario mínimo por el cual el trabajador está dispuesto a trabajar.
En este sentido, se deben buscar soluciones normativas que no sean individuales (como la existente en el RGPD) ni regulen la tecnología concretamente (Reglamento Europeo de IA). Por el contrario, se considera que la mejor manera es que la normativa establezca obligaciones de negociación y acuerdo con los representantes de los trabajadores sobre los sistemas de control tecnológicos impuestos en la empresa.
Esto no deja de ser otra manera de usar ofensivamente los sistemas algorítmicos con el objetivo de reducir el poder de negociación de los trabajadores, solo que se concreta de manera manifiesta a través de usar la tecnología para reducir la efectividad de las protecciones laborales clásicas.
Una manifestación de esto ocurre mediante la discriminación sindical algorítmica. La empresa puede detectar y predecir quiénes pueden ser futuros líderes sindicales o personas que puedan encabezar una huelga para no contratarlas o despedirlas antes de que se inicie ninguna reivindicación. En este sentido, los algoritmos pueden ser capaces de predecir la intención de reivindicación colectiva de aumentos salariales incluso antes de que se realicen las primeras muestras materiales o los primeros «actos preparatorios» si queremos usar argot legal.
Esto no es ciencia ficción, sino el trabajo diario de los algoritmos. En 2014, el presidente de People Operations de Google afirmó que su empresa era capaz de predecir lo que sus trabajadores iban a hacer incluso antes de que ellos mismos lo supieran (Boudreau, 2014). En efecto, la formación de ideas en la mente de las personas que conlleven realizar acciones es un proceso gradual. No nos despertamos un día de repente queriendo viajar a Tailandia, sino que probablemente los días o meses anteriores a tomar la decisión, hemos visto fotos del país, hemos leído artículos en la página web de Lonely Planet, amigos nuestros han viajado a Tailandia y lo han contado en sus redes sociales, etc. Después de todo esto, es posible que con toda esta información que hemos recibido a lo largo de semanas, decidamos ir a Tailandia. Así, teniendo el algoritmo mucha más información y una gran capacidad de procesamiento, podrá predecir con un margen de error aceptable qué haremos en el futuro.
Del mismo modo, una persona no decide afiliarse a uno u otro sindicato sin un bagaje previo, ni presentarse a unas elecciones sindicales o iniciar una reivindicación salarial colectiva sin una trayectoria previa que deje rastro electrónico, y mucho menos organiza una huelga sin poseer un tipo de personalidad concreto, marcado y fácil de descubrir por un algoritmo.
Así pues, sin iniciar ningún acto, que con nuestra legislación pueda considerarse «indicio» para activar las protecciones antidiscriminación, es probable que el algoritmo conozca estas intenciones y despida de manera automatizada al trabajador o, más probablemente, que nunca llegue a contratarlo.1 En efecto, mientras que las garantías frente al despido de una persona sindicada están muy arraigadas en nuestra legislación, mucho menos desarrollada se encuentra la legislación y la jurisprudencia contra la no contratación de personas que en el futuro pudieran convertirse en sindicalistas o en instigadores de una huelga. Sin embargo, el objetivo antisindical y el mal para la sociedad es el mismo.
La cuestión aquí es que esta situación no solo tiene perjuicios individuales para la persona afectada, sino en general para la clase trabajadora (Newman, 2017). Una «no contratación» sistemática de aquellos individuos que muestran interés por defender los intereses colectivos, provocará que el resto queden huérfanos. Para un algoritmo, descubrir las inclinaciones individualistas o colectivas de una persona no parece tarea difícil, por lo cual, si estos sistemas se generalizan como forma de selección de personal, todos los trabajadores sufrirán las consecuencias.
De la misma forma, podrían usarse los algoritmos para inducir comportamientos mediante el análisis por parte de la empresa de qué mensajes nos influyen más o mediante el envío constante de mensajes subliminales a favor de la empresa y en contra del colectivo (sindicato). Existe toda una ciencia del comportamiento (máximos exponentes Thaler y Sunstein) que analiza cómo influir en las personas mediante pequeños cambios en el entorno. En este sentido, los algoritmos pueden realizar millones de ensayos-error fácilmente con cada trabajador de manera automática hasta dar con el nudge – pequeño «empujón»– que modifique su conducta en favor de la empresa.
Adicionalmente, la literatura empieza a poner de manifiesto cómo los algoritmos facilitan la externalización productiva. McDonald’s usa un algoritmo de selección de personal que es compartido por la central en beneficio de todas las empresas franquiciadas (Rogers, 2020, pág. 564). Con esto, no solo se facilita la labor a las empresas franquiciadas respecto a la contratación, sino que la central puede controlar los procesos de selección para que cumplan con sus propios estándares o requisitos, además de acumular gran cantidad de datos que le permitan diseñar futuras estrategias en beneficio propio. Del mismo modo, se pueden controlar minuto a minuto las acciones de los trabajadores de la franquiciada y evaluarlos o despedirlos (u ordenar su despido) (Rogers, 2020, pág. 564).
También en las cadenas de hotel. Muchas de ellas, que funcionan con el modelo de franquicia, utilizan algoritmos para controlar que las habitaciones estén limpias, haya suficientes personas atendiendo en la recepción, etc. (Weil, 2014). Se controla la calidad del servicio prestado a través del control de los trabajadores de la empresa franquiciada teóricamente independiente. PizzaHut se está moviendo en un contexto similar. Como Aloisi y De Stefano (2022) nos cuentan en su libro Your boss is an algorithm, la franquiciadora está experimentando con un sistema de cámaras de vídeo y de reconocimiento de formas y colores que permite a un algoritmo analizar si la pizza, elaborada en cualquier establecimiento de la red de franquicias, cumple con los requisitos de calidad (forma redonda, tipo, cantidad y proporción de ingredientes, velocidad de elaboración, etc.) fijados en los manuales de la franquicia. Así, el control sobre el cumplimiento de estos es absoluto. Un control que no es general sobre la franquiciada, sino que comprende la actuación de cada uno de los trabajadores, y cada una de sus actuaciones minuto a minuto.
De la misma manera, cuando Amazon subcontrata la distribución de paquetes con otras empresas, estas tienen que integrarse en la su red algorítmica. Así, según señala una Acta de la Inspección de Trabajo de Cataluña, los trabajadores de las empresas contratistas tienen que registrarse en la App de Amazon y solo a través de ella pueden contactar con los clientes finales (ved Esteve y Todolí, 2021). Además, estos trabajadores tendrán que escanear los códigos de los paquetes de Amazon para que el algoritmo sepa el estado de la distribución al recogerlos y de nuevo al entregarlos. Los repartidores, formalmente trabajadores de la empresa externa, tendrán que rellenar los formularios para el sistema algorítmico de Amazon, seguir las rutas que el algoritmo diseñe y entregar los paquetes donde el sistema señale. En caso de incidencia tendrán que comunicárselo directamente a Amazon a través de su App recibiendo respuesta de un telebot de Amazon, el cual aportará soluciones en un primer momento. Los clientes finales podrán valorar a este repartidor a través de la App de Amazon, por lo cual la empresa principal dispondrá directamente de esta información –sobre la evaluación del trabajador– para tomar decisiones de ámbito laboral si así lo considera oportuno. A su vez, Amazon también instala cámaras, que son visualizadas por una IA, en los vehículos, con el logo de Amazon, pertenecientes a las empresas subcontratistas que realizan repartos para Amazon a fin de conocer si estos trabajadores cumplen la normativa viaria al conducir los vehículos, cumplen con los límites de velocidad, sufren accidentes que puedan repercutir en la integridad de los paquetes, etc… (Palmer, 2021).
Con los algoritmos, las empresas pueden «tenerlo todo». De un lado, poner un intermediario que reduce su responsabilidad jurídica ante los trabajadores, a la vez, que mantienen un férreo control –tecnológico– sobre la prestación de servicios realizada por estos.
Los datos también son claros respecto a la reducción del poder de negociación de los trabajadores –y sus efectos en la precariedad laboral– derivados de la externalización productiva (Weil, 2014). La externalización provoca que las empresas subcontratistas compitan a la baja en condiciones laborales, a la vez, que se vean forzadas a incumplir la normativa laboral para poder mantener la contrata. Todo esto, mientras la empresa principal se mantiene inmune a las posibles responsabilidades. La externalización también dificulta el ejercicio de los derechos colectivos de los trabajadores.
Para combatir este efecto, que desequilibra el contrato de trabajo, sometiéndolo a las reglas del mercado y alejándolo de las protecciones laborales, no se debe mirar a la regulación de la tecnología, sino a la de sus efectos. Así, la regulación propuesta va encaminada a tratar la red empresarial como si fuera una, responsabilizando a la empresa principal por los incumplimientos de la contratista, así como, regulaciones que permitan a los trabajadores de la contrata el ejercicio de los derechos de representación sindical, negociación colectiva y vaga frente a la empresa principal.
ALOISI, Antonio; DE STEFANO, Valerio (2022). Your Boss Is an Algorithm: Artificial Intelligence, Platform Work and Labour. Oxford: Hart. DOI: https://doi.org/10.5040/9781509953219
BOUDREAU, John (2014, 5 de setembre). «Predict What Employees Will Do Without Freaking Them Out». Harvard Business Review [en línea]. Disponible en: https://hbr.org/2014/09/predict-what-employees-will-do-without-freaking-themout
DEMBE, Allard; ERICKSON, J. Bianca; DELBOS, Rachel G.; BANKS, Steven. M. (2005). «The impact of overtime and long work hours on occupational injuries and illnesses: new evidence from the United States». Occupational and environmental medicine, vol. 62, n.º 9, págs. 588-597. DOI: https://doi.org/10.1136/oem.2004.016667
ESTEVE SEGARRA, Amparo; TODOLÍ SIGNES, Adrián (2021). «Cesión ilegal de trabajadores y subcontratación en las empresas de plataforma digitales». Revista de Derecho Social, n.º 95, págs. 37-64.
FERNÁNDEZ AVILÉS, José Antonio (2017). «NTIC y riesgos psicosociales en el trabajo: estado de situación y propuestas de mejora». Diritto della sicurezza sul lavoro, n.º 2, págs. 69-101 [en línea]. Disponible en: https://salus.adapt.it/wp-content/uploads/2020/04/1278-5235-2-PB.pdf
NEWMAN, Nathan (2017). «UnMarginalizing Workers: How Big Data Drives Lower Wages and How Reframing Labor Law Can Restore Information Equality in the Workplace». University of Cincinnati Law Review, vol. 85, n.º 3. DOI: https://doi.org/10.2139/ssrn.2819142
PALMER, Annie (2021, 3 de febrero). «Amazon is using AI-equipped cameras in delivery vans and some drivers are concerned about privacy». CNBC [en línea]. Disponible en: https://www.cnbc.com/2021/02/03/amazon-using-ai-equipped-cameras-in-delivery-vans.html
RIVAS VALLEJO, Pilar (2020). La aplicación de la inteligencia artificial al trabajo y su impacto discriminatorio. Aranzadi.
RODRÍGUEZ-RICO ROLDÁN, Victoria (2018). «Los retos para la prevención de riesgos laborales ante la tecnificación del trabajo». En: Cerejeira Namora (ed.). Health at work, ageing and environmental effects on future social security and labour law Systems.
ROGERS, Brishen (2020). «The law and political economy of workplace technological change». Harvard Civil Rights- Civil Liberties Law Review (CR-CL), vol. 55, págs. 531-584 [en línea]. Disponible en: https://journals.law.harvard.edu/crcl/wp-content/uploads/sites/80/2020/10/Rogers.pdf
SHAPIRO, Carl; STIGLITZ, Joseph E. (1984). «Equilibrium unemployment as a worker discipline device». The American Economic Review, vol. 74, n.º 3, págs. 433-444 [en línea]. Disponible en: https://www.jstor.org/stable/1804018
TODOLÍ SIGNES, Adrián (2016). Salario y productividad. València: Tirant lo Blanch. [En linia]. Disponible a: https://adriantodoli.com/2016/02/23/salario-y-productividad-mi-nuevo-libro-ya-disponible/
TODOLÍ SIGNES, Adrián (2022a). «Libro en abierto para descargar: “Algoritmos productivos y extractivos. Cómo regular la digitalización para mejorar el empleo e incentivar la innovación”». Aranzadi. [en línea]. Disponible en: https://adriantodoli.com/2024/10/17/libro-en-abierto-para-descargar-algoritmos-productivos-y-extractivos-como-regular-la-digitalizacion-para-mejorar-el-empleo-e-incentivar-la-innovacion/
TODOLÍ SIGNES, Adrián (2022b). «Control tecnológico: una propuesta de aplicación del triple test de proporcionalidad conforme la normativa europea de protección de datos». Ponència. XXXII Congreso Asociación española de Derecho del Trabajo y de la Seguridad Social. Alicante. [en línea]. Disponible en: https://adriantodoli.com/2023/02/09/videovigilancia-permanente-de-los-trabajadores-argumentos-contra-la-posicion-jurisprudencial-actual/
WEIL, David (2014). The fissured workplace: Why work became so bad for so many and what can be done to improve it. Harvard University Press. DOI: https://doi.org/10.4159/9780674726123
- Esto no quiere decir que estas personas nunca encuentren trabajo, es posible que sí que lo hagan en una subcontratista de quinto nivel, muy alejada de la empresa matriz, o en sectores sin este tipo de dirección algorítmica (a pesar de que de estos cada vez existirán menos).
TODOLÍ, Adrián. «Riesgos concretos de la IA y posible regulación efectiva». Oikonomics [en línea]. Mayo 2025, n.º 24. ISSN 2330-9546. DOI: https://doi.org/10.7238/o.n24.2506
ODS

Ha publicado más de 150 trabajos de investigación, incluyendo artículos en revistas indexadas, libros y capítulos de libro. También ha sido invitado en más de 100 ocasiones para impartir conferencias en instituciones, sindicatos, patronales, inspecciones de trabajo, etc. Ha publicado cuatro monografías sobre cuestiones salariales: desde la revisión de salarios hasta complementos y bonificaciones, incluyendo también una obra específica sobre la retribución en el sector público. Asimismo, ha publicado otras obras destacadas como El treball en l’era de l’economia col·laborativa (2017), La regulació del treball i la política econòmica. De com els drets laborals milloren l’economia (2022), y Algoritmes productius i extractius (2023). Ha sido galardonado con el premio al Mejor Abogado Joven, otorgado por el Foro Español del Trabajo (FORELAB), y con el premio a la Mejor Investigación en Derecho del Trabajo, concedido por la Asociación Española de Derecho del Trabajo y de la Seguridad Social (AEDTSS) en dos ocasiones (2015 y 2016). Su proyección internacional se refleja también en varias estancias de investigación en universidades y centros de excelencia como por ejemplo: University of California, Berkeley – School of Law, Facultad de Derecho de la Universidad de Cambridge, Max Planck Institute for Social Law and Social Policy, ...