37 min read

La regulación del impacto laboral de la IA

Con motivo de la nueva ley taiwanesa en IA, analizo el reto de regular el impacto laboral de la IA y cómo se está afrontando; y actualidad del 26 de enero al 1 de febrero 🌂
La regulación del impacto laboral de la IA
Photo by Javad Esmaeili / Unsplash
CALENDARIO de próximos CURSOS 😄

En las últimas semanas, hemos sabido de:

  • Un tribunal español que avala el despido de una traductora porque la IA hace su trabajo.
  • Un sindicato surcoreano exigiendo que ni un solo robot humanoide pise la fábrica sin acuerdo previo.
  • Un banco japonés que contrata "empleados de IA" para redactar discursos y formar a nuevos trabajadores.
  • O el gobierno de China anunciando que prepara políticas específicas para amortiguar el impacto laboral de la inteligencia artificial.

La pregunta ya no es si la IA transformará el mercado de trabajo. La pregunta, un poco más incómoda, es quién se está encargando de regular esa transformación y, sobre todo, cómo.

Taiwán marca el paso: una ley básica con vocación de amortiguador

En diciembre de 2025, Taiwán aprobó su AI Fundamental Act, una norma que resulta particularmente interesante por su enfoque dual. No se limita a establecer principios (que los tiene, y son siete: sostenibilidad, autonomía humana, privacidad, seguridad, transparencia, equidad y rendición de cuentas) sino que incorpora un paquete explícito de promoción que incluye subvenciones, incentivos fiscales y financieros, inversión en infraestructura y, lo que aquí nos interesa, medidas específicas de formación y desarrollo de talento para reducir la brecha digital.

¿Qué tiene esto de particular? Que Taiwán parece anticipar algo que muchas jurisdicciones todavía están procesando: regular la IA sin abordar su impacto en el empleo es como poner un cinturón de seguridad y olvidarse de los frenos. La ley taiwanesa no se limita a hablar de la transparencia de la IA, también piensa en que los trabajadores no se queden atrás.

Corea del Sur: cuando el sindicato planta cara al robot

El modelo taiwanés no está solo. Corea del Sur aprobó su propia AI Basic Act, en vigor desde enero de 2026, con una arquitectura similar: ley marco que combina gobernanza, definición de IA de alto riesgo, obligaciones de transparencia, base legal para evaluaciones de impacto y un paquete de desarrollo de talento, apoyo a startups y formación de expertos.

Pero la teoría normativa se ha encontrado, en tiempo real, con la práctica industrial. A finales de enero de 2026, el sindicato de Hyundai Motor lanzó una advertencia sin precedentes: ni un solo robot humanoide Atlas (desarrollado por Boston Dynamics, filial de Hyundai) entrará en las líneas de producción sin un acuerdo entre empresa y trabajadores. El sindicato calcula que un robot con un coste de mantenimiento anual de unos 14 millones de wones puede funcionar 16 horas diarias y hacer el trabajo de dos empleados. La resistencia es la primera de un gran sindicato industrial a la adopción masiva de IA física, y plantea una pregunta que la AI Basic Act todavía no ha respondido con detalle: ¿quién negocia las condiciones cuando el nuevo compañero de trabajo no come, no duerme y no cotiza?

Europa: el enfoque más prescriptivo pero con lagunas

En la Unión Europea, el marco es doble y complementario. El Reglamento de IA (UE) 2024/1689 clasifica la IA en el ámbito del empleo como alto riesgo, prohíbe inferir emociones en el lugar de trabajo (salvo usos médicos o de seguridad), exige informar a representantes de los trabajadores antes de desplegar sistemas de alto riesgo y obliga a proveedores y responsables del despliegue a garantizar la alfabetización en IA de su personal. Pero el Ómnibus Digital puede cambiar alguna de esas previsiones.

La Directiva (UE) 2024/2831 sobre trabajo en plataformas añade una capa específica de gestión algorítmica: evaluaciones de impacto con participación de representantes, transparencia incluso en procesos de selección, y la regla de que decisiones especialmente gravosas (como suspender o terminar una cuenta) deben ser adoptadas por una persona, no por un algoritmo.

El problema es que, como ha señalado la doctrina, el AI Act exige "AI literacy" o alfabetización en IA pero no crea un deber empresarial de reciclaje profesional. Es decir: Europa te dice que informes al comité de empresa de que vas a usar IA, pero no te obliga a formar al trabajador cuyo puesto esa IA va a transformar. El talento y la recualificación quedan, por ahora, en el ámbito de la política pública nacional.

España: la "Ley Rider" como precedente y la sentencia que lo cambia todo

España tiene un antecedente relevante en el Real Decreto-ley 9/2021 (la conocida "Ley Rider"), que reconoció el derecho del comité de empresa a ser informado de los parámetros, reglas e instrucciones de los algoritmos que inciden en condiciones de trabajo, incluida la elaboración de perfiles. Un precedente que, aunque sectorial, anticipó la lógica que después cristalizó en la normativa europea.

Pero la noticia que ha generado el debate en febrero de 2026 es la sentencia del TSJ de Castilla y León (nº 3529/2025), que declaró procedente el despido objetivo de una traductora al acreditar una reducción de ingresos vinculada a la irrupción de la traducción automática y la IA en el sector. Es, probablemente, la primera resolución española que conecta de forma explícita la automatización por IA con la amortización de un puesto de trabajo. 

El mundo se mueve: Japón, China y el vacío que queda

Japón estima que en 2040 habrá más de 3,3 millones de empleos vacantes que requerirán competencias en IA y robótica. Mientras tanto, el gigante financiero MUFG ya despliega "empleados de IA" para redactar discursos y formar a nuevas incorporaciones, en lo que define como el paso de la IA-herramienta a la IA-compañero de trabajo. Su marco normativo, sin embargo, sigue siendo esencialmente de soft law: guías voluntarias para empresas, sin obligaciones vinculantes.

China, por su parte, ha anunciado estas semanas que su Ministerio de Recursos Humanos y Seguridad Social prepara un documento de política específico para gestionar el impacto laboral de la IA. El Ministerio ha identificado 72 nuevas ocupaciones en los últimos cinco años, más de 20 directamente relacionadas con la IA. Y ha puesto en marcha una campaña nacional de capacitación profesional hasta 2027 dirigida a más de 30 millones de personas. Es, quizá, la apuesta más ambiciosa en volumen, aunque opera dentro de un marco de supervisión administrativa coordinada por la autoridad de ciberespacio que plantea sus propias cuestiones de gobernanza.

Accenture anunció a finales del año pasado que mostraría la puerta de salida a los empleados que no se reinventen para la era de la IA.

Incluso en España, el Ministerio de Trabajo ha anunciado su intención de prohibir la IA generativa en el sector cultural cuando sustituya el trabajo de artistas y técnicos, una medida sectorial que, de concretarse, marcaría un enfoque inédito: no ya regular cómo se usa la IA, sino dónde no se puede usar si desplaza empleo creativo.

En EEUU, OpenAI quiere certificar a 10 millones de personas en su academia de IA de aquí al 2030.

La pieza que falta

Si miramos el panorama con perspectiva, empieza a dibujarse un patrón: hay jurisdicciones que regulan la IA como producto (Europa, con su enfoque de vigilancia de mercado y gestión de riesgos), otras que la regulan como principio (Taiwán o Corea) y otras que todavía navegan entre guías voluntarias, iniciativa privada o aplicación normativa más reactiva (EE.UU., Japón o Australia).

Lo que falta en casi todas (y lo que Taiwán y Corea empiezan a abordar, al menos en su dimensión de política pública) es un estándar mínimo de gobernanza laboral de la IA. Algo que obligue a las empresas que despliegan IA de alto riesgo en el ámbito del empleo no solo a informar al comité de empresa (Europa ya lo exige), sino a evaluar el impacto en el empleo, a financiar la recualificación cuando la transformación sea inevitable y a negociar las condiciones de la transición.

Como nos recuerda la Ley de Amara, tendemos a sobrestimar el impacto de la tecnología a corto plazo y a subestimarlo a largo plazo. La OIT estima que uno de cada cuatro trabajadores tiene algún grado de exposición a la IA generativa. El TSJ de Castilla y León acaba de decirnos que esa exposición ya tiene consecuencias jurídicas reales.

Cómo la IA transforma el trabajo y las consecuencias de esa transformación van a ser un reto mayúsculo para la mayoría de países y sectores de actividad, el legal incluido 😅

Jorge Morell Ramos


Dicho esto, ahí va la actualidad del 26 de enero al 1 de febrero de 2026 en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).

90 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otras.