38 min read

El deber de transparencia en IA: Europa Vs China

Comparamos la normativa china y europea sobre transparencia en contenido creado con IA; y la actualidad en Derecho e IA del 23 al 29 de junio 🇨🇳
El deber de transparencia en IA: Europa Vs China
Photo by 天琦 王 / Unsplash

Desde el 1 de septiembre, las principales plataformas de redes sociales chinas (WeChat o Douyin, por ejemplo), han lanzado nuevas características para cumplir con una nueva ley que exige el etiquetado de todo el contenido generado por inteligencia artificial en línea.

La ley se llama “Medidas para la Identificación de Contenido Sintético Generado por IA” y fue promulgada en marzo de este año. La misma puede consultarse aquí (en chino, pero puede traducirse bien).

La nueva ley requiere etiquetas explícitas e implícitas para el texto, las imágenes, el audio, el vídeo y otro contenido virtual generado por IA. Las marcas explícitas deben ser claramente visibles para los usuarios, mientras que los identificadores implícitos, desde las marcas de agua digitales, deben estar incrustados en los metadatos.

El principal organismo de control de Internet del país, la Administración del Ciberespacio de China (CAC), junto con el Ministerio de Industria y Tecnología de la Información, el Ministerio de Seguridad Pública y la Administración Nacional de Radio y Televisión, redactaron la ley con el objetivo de un mayor escrutinio sobre el uso de IA a medida que crecen las preocupaciones sobre la desinformación, la infracción de derechos de autor y el fraude en línea.

¿En qué consiste la norma china?

Los requisitos clave de la norma implican:

1.- Etiquetado explícito e implícito: la normativa china requiere expresamente una doble capa de transparencia. Debe añadirse una etiqueta explícita visible en el propio contenido o en la interfaz donde se presente (p. ej. un aviso textual o gráfico indicando “Contenido generado por IA”), que debe ser claramente perceptible para el usuario

Además, se debe incorporar un identificador implícito en el contenido, como marcas de agua digitales incrustadas en los metadatos del archivo para rastrear su origen aunque no sean visibles directamente.

2.- Responsabilidad del proveedor del servicio de IA: Las empresas que ofrecen servicios de generación de contenido (por ejemplo, aplicaciones de IA generativa tipo chatbots, editores de imágenes o videos sintéticos) deben incorporar estas marcas en los contenidos que generen automáticamente.

Según el art. 4, se detalla cómo añadir los avisos según el tipo de contenido (texto, audio, imagen, vídeo, escena virtual, entre otros). De ese modo, un clip de audio debe incluir un aviso sonoro al inicio o final, una imagen debe llevar una marca visual superpuesta, un vídeo debe arrancar con una pantalla indicando que es sintético, y así con el resto de contenido (hasta 6 escenarios se contemplan).

Asimismo, al permitir descargar o exportar contenido generado, el servicio debe asegurarse de incrustar la etiqueta explícita en el archivo.

Paralelamente, todos los archivos generados deben contener metadatos ocultos con información como la naturaleza sintética del contenido, la identidad del proveedor del servicio o un código de éste, y un identificador de contenido. Se fomenta incluso el uso de marcas de agua digitales directamente dentro del contenido como capa adicional de marca implícita.

3.- Responsabilidad de las plataformas en línea: Los proveedores de servicios de difusión de contenido en línea (es decir, redes sociales, foros, plataformas de vídeo, entre otras) deben verificar el contenido publicado por los usuarios y asegurar que esté etiquetado.

La norma (art. 6) ordena a las plataformas comprobar los metadatos de los ficheros que los usuarios suben para ver si contienen la marca oculta de IA. Si los metadatos indican que es contenido de IA, la plataforma debe añadir un aviso visible junto al contenido para alertar al público de su naturaleza. Si no hay marca en los metadatos pero el usuario declara que su contenido es generado por IA, la plataforma igualmente debe colocar la etiqueta visible indicando que “posiblemente” es contenido generado por IA.

Incluso si no hay marca ni declaración pero la plataforma detecta indicios (por ejemplo, una marca visible incrustada o “huellas” de generación), debe marcar ese contenido como sospechosamente sintético. Adicionalmente, las plataformas tienen que proporcionar herramientas para que los usuarios declaren voluntariamente al publicar si su contenido incluye material de IA.

Medidas que están adoptando las redes sociales chinas:

WeChat (Weixin en China): los creadores de contenido deben declarar voluntariamente todo el contenido generado por IA en el momento de la publicación. Para el contenido que no ha sido marcado, se recuerda a los usuarios que tomen sus decisiones de forma consciente.

Douyin (el hermano chino de TikTok): los creadores deben agregar etiquetas visibles a cada contenido generado por IA que publiquen. La plataforma detecta la fuente de cada pieza de contenido a través de los metadatos.

Weibo: agregó una opción de "Contenido de IA sin etiquetar" para que los usuarios denuncien contenido inapropiado.

RedNote (Xiaohongshu, en China): para el contenido generado por IA que no se declara voluntariamente, se reserva el derecho de agregar identificadores explícitos o implícitos.

4.- Obligaciones de usuarios y prohibiciones: La norma exige a los usuarios que cuando publiquen contenido generado por IA, lo declaren activamente y no eliminen las marcas. Está explícitamente prohibido (art. 10) que cualquier persona u organización elimine, altere, falsifique u oculte maliciosamente las etiquetas (explícitas o implícitas) de contenido AI previstas por la ley, o que provea herramientas/servicios para hacerlo.

También se prohíbe el uso indebido de etiquetas que pueda infringir derechos ajenos.

5.- Excepciones limitadas: A diferencia de la UE y el Reglamento sobre IA (RIA), la regla general en China es etiquetar todo contenido de IA sin excepción por defecto.

La única salvedad explícita en las medidas chinas es un caso controlado (art. 9): si un usuario solicita al servicio generativo obtener contenido sin la marca explícita (por ejemplo, para usos internos), el proveedor puede entregarlo solo tras firmar un acuerdo con el usuario donde este se compromete a no difundirlo sin etiquetar y asume responsabilidad.

Incluso en esos casos, el proveedor debe conservar registros de a quién entregó dicho contenido sin marca durante al menos 6 meses y asegurarse de que sí lleva la marca oculta en metadatos para trazabilidad.

En todo caso, no se menciona ninguna exención general por fines artísticos o informativos: incluso deepfake creativos tendrían que llevar aviso, dado el objetivo prioritario de esta ley de prevenir engaños.

En resumen, la propuesta china impone un deber universal de etiquetado: toda plataforma y servicio debe garantizar que ningún contenido generado por IA circule sin identificar.

¿Cómo se diferencia de la regulación europea?

En el caso de RIA, y teniendo en cuenta el enfoque basado en el riesgo, los sistemas de “riesgo limitado” (ni prohibidos ni de alto riesgo) están sujetos a deberes de transparencia específicos de acuerdo al art. 50, mientras que los sistemas de “alto riesgo” conllevan requisitos más estrictos de documentación, evaluación de conformidad y supervisión, incluyendo también ciertas obligaciones de transparencia internas y hacia usuarios y autoridades.

Si nos ceñimos al art. 50, empezaremos a ver las diferencias con la propuesta china:

A.- El art. 50.1 regula la necesidad de transparencia al interactuar con un sistema de IA, salvo que esto resulte obvio dadas las circunstancias. La norma china se centra en el contenido, no habla de interacciones.

B.- El art. 50.2 regula el contenido sintético generado por IA (texto, imágenes, audio o video) y que los proveedores deben marcar las salidas de la IA de forma técnica (legible por máquina) para que sean detectables como generadas artificialmente. La norma exige que estas marcas (de agua o metadatos) sean efectivas, interoperables y fiables, en la medida de lo técnicamente posible. Pero hay excepciones, ya que esta obligación no se aplica a sistemas de IA meramente asistivos en edición que no alteran sustancialmente el contenido original, ni a usos autorizados por ley para fines de seguridad o policiales.

Por tanto, RIA parece poner más el foco en la identificación implícita, aunque la misma facilita la explícita, mientras que China quiere ambas muy claras y presentes. En todo caso, el art. 50.5 RIA incide en la necesidad facilitar la información de ”manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición”. Los ejemplos chinos del art. 4 van en esa línea, por ejemplo al hablar de audio:

“Agregar indicaciones de voz o indicaciones de ritmo de audio al principio, final o posición apropiada en el medio del audio, o agregar indicaciones prominentes en la interfaz de escena interactiva;”

Otra diferencia interesante es que mientras en RIA se cita expresamente “contenido sintético de audio, imagen, vídeo o texto”, el art. 4.5 de la norma china contempla también “escenas virtuales” y el 4.6 “otro tipo de contenidos sintéticos”.

C.- Quien utilice en actividades profesionales imágenes, audio o video generados o alterados por IA que parezcan de personas, objetos o eventos reales debe revelar que dicho contenido ha sido creado o manipulado artificialmente, dice el art. 50.4. Esta obligación recae en el usuario profesional que difunde el contenido más que en el proveedor de la herramienta. La propuesta china pone más peso en las plataformas, que deben ser mucho más proactivas.

En todo caso, en Europa se excluyen esas obligaciones de transparencia en usos autorizados para la aplicación de la ley, y en obras artísticas o satíricas se permite una forma de divulgación más sutil que no arruine la experiencia creativa. La propuesta china contempla muy mínimas excepciones, y mucho menos algo parecido a la excepción creativa.

D.- El art. 50.4, segundo párrafo de RIA regula el caso de textos publicados para informar al público sobre asuntos de interés público que hayan sido modificados por IA. En ese caso, el responsable del texto debe divulgar que el mismo es artificial. En todo caso, hay excepciones si el texto ha pasado por revisión o control editorial humana, asumiendo una persona la responsabilidad del contenido, o si su uso sin etiquetar está autorizado para fuerzas del orden.

La norma china no contempla supuestos similares, más allá de menciones puntuales a la seguridad pública y cumplimento de su ordenamiento en los arts. 11 y 13.

Por último, el art. 50 contiene previsiones especificas sobre obligaciones de transparencia en reconocimiento de emociones y categorización biométrica, además de las obligaciones especificas en sistemas de alto riesgo a lo largo de RIA.

Conclusión

El deber de transparencia en la UE y en China difieren profundamente en su alcance y ejecución. Mientras que la UE impone obligaciones focalizadas y proporcionadas al riesgo (con autoridades independientes y con sanciones post-incumplimiento significativas pero procedimientos garantistas) China ha optado por una regulación preventiva y mucho más universal, exigiendo etiquetado muy comprensivo de contenidos de IA y delegando en las plataformas y en su aparato estatal de ciberseguridad la tarea de monitorizar activamente el cumplimiento.

Ambas regulaciones comparten el objetivo básico de evitar engaños y aumentar la confianza en contenidos y sistemas de IA, pero las filosofías regulatorias son bastante diferentes.

Por no hablar de que Europa ya se plantea si el código de conducta que prepara en esta materia, vía el art. 50.7 RIA, puede quedarse corto y no contemplar la debida transparencia al interactuar con agentes de IA, y no simples chatbots.

Sin duda continuará…


Dicho esto, ahí va la actualidad del 23 al 29 de junio en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).

89 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otros 🤖