La IA de muchos juguetes será de alto riesgo, según nuevo reglamento UE
La IA de muchos juguetes será considerada de alto riesgo, de acuerdo a nueva normativa sectorial; y recopilamos la actualidad del 5 al 11 de mayo 🧸
Ahí va un cambio normativo que está pasando algo desapercibido y que parece ser el primer caso de normativa sectorial estableciendo una nueva obligación relativa a los sistemas de IA de alto riesgo.
En marzo de 2024, el Parlamento Europeo (tras una propuesta del Consejo Europeo en julio de 2023) aprobó modificar la legislación europea sobre seguridad de los juguetes.
Las modificaciones eran relativas a la toxicidad de los materiales, su trazabilidad, su vigilancia en el mercado, comercialización en línea, la tecnología usada y la seguridad de la misma, entre otras cuestiones.
En febrero de 2025, la Comisión Europea presentó el borrador de reglamento que sustituiría la directiva sobre seguridad de juguetes de 2009, y establecería la nueva regulación europea en la materia.
El 10 de abril de 2025, las instituciones europeas alcanzaron un acuerdo provisional sobre el contenido final del nuevo reglamento.
Se espera que la aprobación final llegue en septiembre 2025 y se establezca un periodo de adaptación de 54 meses, de modo que la norma no resulte aplicable en su gran mayoría hasta el año 2030.
Ahora bien, un cambio de la nueva normativa que no ha sentado bien es el que obligaría a los fabricantes de juguetes que incorporen un sistema de inteligencia artificial o utilicen la IA como elemento de seguridad a ser consideradas IAs de alto riesgo en virtud del Reglamento de Inteligencia Artificial (RIA). El sector considera que ese párrafo no se alinea con RIA, lo que podría sentar un precedente sobre cómo interactúan otras normas sectoriales de seguridad con el marco normativo de la inteligencia artificial.
La versión más actual del texto, del 11 de junio de 2025, puede leerse aquí.
La misma regula el uso de IA en juguetes y su consideración como de alto riesgo en el Considerando 14 a) y el artículo 17.
Considerando 14 a):
Under Regulation (EU) 2024/1689, toys with AI systems as safety components that require third-party conformity assessment are classified as high-risk AI systems. The choice by the manufacturer of the conformity assessment procedures for such toys, where there is a possibility to opt out of third party conformity assessment where harmonised standards have been applied, should not affect this classification as high-risk AI system under Article 6(1) of the AI Act.
Artículo 17.4 a), letras a y d:
A) manufacturers and, where applicable, providers of high-risk AI systems, shall be deemed to comply with the obligation to draw up an EU declaration of conformity under, …
D) economic operators and, where applicable, providers of high-risk AI systems shall use the digital product passport to fulfil their obligations related to the declaration of conformity under, as applicable,…
En resumen, que los juguetes que incorporen sistemas de inteligencia artificial como componentes de seguridad y que requieran una evaluación de conformidad por terceros se clasificarán como sistemas de IA de alto riesgo.
Por ejemplo, un robot de juguete que use IA para detectar colisiones o evitar el sobrecalentamiento cumpliría con el uso relativo a su seguridad. Ya se haga luego evaluación o autoevaluación del juguete, eso no cambiará que esa IA se considere de alto riesgo.
Por tanto, el juguete debería también cumplir con las obligaciones relativas a la gestión de riesgos, gobernanza de datos, documentación técnica, registro en la base de datos de sistemas de IA de alto riesgo, pruebas y robustez, ciberseguridad, supervisión humana, etc. que establece RIA.
Con una particularidad, RIA comenzaría a aplicar en ese sentido desde agosto de 2026, pero la nueva normativa sobre juguetes parece que se alargará hasta 2030.
De ahí en parte el enfado del sector, que entiende que esta normativa sectorial no se alinea debidamente con RIA y eso crea inseguridad.
Sea como sea, la actual normativa aplicable sobre seguridad de juguetes, la Directiva 2009/48/CE del Parlamento Europeo y del Consejo, de 18 de junio de 2009, se cita en RIA en el Anexo I, concretamente en la lista de actos legislativos de armonización de la UE.
Además, el Considerando 50 de RIA indica que en cuanto a los sistemas de IA que son componentes de seguridad de productos, procederá clasificarlos como de alto riesgo si el producto de que se trate es sometido a un procedimiento de evaluación de la conformidad con un organismo de evaluación de terceros de acuerdo con dichos actos legislativos de armonización de la UE. Y cita expresamente a los juguetes.
En conclusión, tenemos el primer ejemplo de normativa sectorial abriendo la puerta a nuevos supuestos de IA de alto riesgo.
Y quizá en unos años Santa y los Reyes Magos llenarán las casas de montones de IAs de alto riesgo 😅

A continuación, el resumen de la semana del 5 al 11 de mayo de 2025, en regulación, tribunales, propiedad intelectual e industrial, datos personales, entre otras cuestiones vinculadas a la inteligencia artificial y el mundo legal.