21 min read

La agencia tributaria de UK debe indicar si usa IA, dice un tribunal

La AEAT británica debe ser transparente sobre su uso de IA, según un tribunal; y repasamos la actualidad del 26 de mayo al 1 de junio de 2025 💰
La agencia tributaria de UK debe indicar si usa IA, dice un tribunal
Photo by Jon Tyson / Unsplash


El HM Revenue & Customs - HMRC (el equivalente a la Agente Tributaria en España) debe revelar si utilizó y cuándo herramientas de inteligencia artificial al decidir si aplicaban desgravaciones fiscales en materia de investigación y desarrollo, después de perder una batalla legal por una solicitud de transparencia.

Enlace a la resolución.

Si no funciona el anterior link, copiar/pegar la URL en el navegador: https://www.bailii.org/uk/cases/UKFTT/GRC/2025/915.html

En diciembre de 2023, el asesor fiscal Thomas Elsbury presentó una solicitud de Libertad de Información (FOI) después de que él y otros asesores concluyeran que la IA se había utilizado al procesar las solicitudes de crédito fiscal de I+D, basándose en las cartas de rechazo recibidas.

El apelante pidió información detallada sobre: 1) usos concretos de LLMs; 2) selección y/o desarrollo de modelos; 3) políticas de privacidad y PIA realizada; 4) políticas y procedimientos aplicados (supervisión humana y ética) y 5) planes futuros en el equipo de cumplimiento de I+D.

El HMRC rechazó la solicitud, argumentando que la publicación de la información ayudaría a las personas que intentaban reclamar incorrectamente la desgravación fiscal, una decisión que fue confirmada el año pasado por la Oficina del Comisionado de Información (el ICO).

Sin embargo, a inicios de agosto de este año un First-tier Tribunal falló en contra de las decisiones tanto de la ICO como de la HMRC. La sentencia concluye que "el equilibrio del interés público radica en la divulgación de la información solicitada" y dio a HMRC hasta mediados de septiembre para cumplir con la solicitud.

De acuerdo al tribunal, el HMRC confirmó hasta en dos ocasiones que tenía información sobre lo requerido, pero que la retenía debido al perjuicio que eso podía generar en la evaluación y recaudación de tributos.

Sin embargo, ante el ICO cambió de argumento y afirmó que debería haber respondido con un NCND (Neither confirm nor deny), siendo en ese caso el riesgo la posibilidad de comprometer la actividad de cumplimiento frente al fraude en I+D. El ICO aceptó esa tesis y consideró que el interés público justificaba no desvelar esa información.

El tribunal rechaza el argumento del HMRC y del ICO (que ni se personó), indicando que el HMRC dijo dos veces que tenía la información y sólo después viró hacia el NCND ante el ICO. Además, no aportó evidencia que demostrara el nexo causal entre confirmar/denegar y un perjuicio real a la recaudación, apoyándose en riesgos teóricos no acreditados. Para el Tribunal, es “insostenible” el cambio a NCND tras confirmar previamente que disponía de la información.

Según el Tribunal, los argumentos del apelante sobre la necesidad de transparencia, confianza y debate informado en torno al uso (o no) de IA por parte del HMRC tenían “considerable fuerza”. De hecho, señala que la falta de información pública que levante la sospecha ciudadana apuntala la necesidad de transparencia en este asunto.  

También advirtió un posible efecto desincentivador sobre reclamaciones legítimas de I+D si persiste la opacidad, lo que entorpece la propia política pública de fomento de la I+D.  

En conclusión, el tribunal cree que el ICO sobredimensionó los riesgos (no probados) de aumento del fraude e infravaloró los beneficios sociales de la transparencia en un ámbito (el uso de IA en funciones públicas) de alta preocupación global.

Ahora el HMRC debe decir si tiene la información para cada epígrafe de la solicitud y, si la tiene, o bien la facilita o bien justifica de forma motivada el rechazo.

El tema de la transparencia en el uso de IA por parte de la Administración Pública sigue subiendo de temperatura. Ya hace dos semanas se le requería al primer ministro sueco. Y a inicios de años, Peter Kyle, el secretario de tecnología del Reino Unido, se convirtió en el primer político cuyos prompts han sido publicados usando la Ley de Libertad de Información (FOI).

¿En España algo como lo del HMRC sería factible? La Ley General Tributaria regula el carácter reservado de los datos tributarios. Pero no es una previsión absoluta y entre la Ley de Transparecia y el ejercicio de derechos RGPD/LOPD hoy en día seguramente se podría llegar lejos. Si sumamos las obligaciones de transparencia que impondrá el Reglamento sobre IA (RIA), por ejemplo la necesidad de registrar sistemas de IA de alto riesgo usados por instituciones públicas (arts. 49 y 71 RIA), en el futuro conseguir este tipo de información en países de la UE debería ser algo más fácil.

Veremos cómo acaba esta historia.


Dicho esto, ahí va la actualidad del 26 de mayo al 1 de junio en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).

64 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otros 🤖