¿Serán los abogados como los radiólogos en cuanto a la IA?
CALENDARIO de próximos CURSOS 😄
Hace casi 10 años uno de los referentes de la IA pronosticó muy seriamente la “muerte” de los radiólogos como profesión. Una década después, se contratan a más radiólogos que nunca e incluso ganan más, aunque la IA los viene superando desde 2017. ¿Qué ha pasado? ¿Podría algo similar ocurrir en otras profesiones, como la de los abogados?
Vamos a verlo.
En 2016, Geoffrey Hinton, conocido como el ”padrino de la inteligencia artificial” y premio Turing, hizo una predicción categórica: ”La gente debería dejar de formarse como radiólogos ahora mismo”. Según Hinton, en cinco años (diez como máximo), el deep learning (IA) superaría a los radiólogos en el análisis de imágenes médicas. No solo eso: ya había suficientes radiólogos y formar más era un desperdicio de recursos.
Han pasado casi diez años. Y la semana pasada, el CEO de Nvidia, Jensen Huang, recordaba esta predicción en el podcast de Joe Rogan para ilustrar precisamente lo contrario de lo que Hinton pronosticó: ”Lo irónico es que el número de radiólogos ha crecido”, afirmó Huang. ”Hoy, prácticamente todos los radiólogos usan IA de alguna manera”.
Los datos respaldan a Huang. Según un reciente análisis de esta misma cuestión por parte del Financial Times, en el Reino Unido el número de radiólogos empleados por el NHS ha crecido más del 40% desde 2016. En Estados Unidos, las contrataciones de radiólogos aumentaron un 20% desde la predicción de Hinton, y el American College of Radiology proyecta un crecimiento de hasta el 40% entre 2023 y 2055. El salario medio de un radiólogo estadounidense alcanza ya los 520.000 dólares, un 48% más que hace una década.
Esta paradoja plantea una pregunta interesante para los que trabajamos en el sector legal: ¿podría ocurrirnos lo mismo a los abogados? Y si los patrones que han mantenido a los radiólogos empleados (y cada vez mejor pagados) son extrapolables, ¿cuáles son y cómo se aplicarían a nuestra profesión?
El análisis del Financial Times y el artículo de Deena Mousa en Works in Progress identifican tres razones principales por las que la IA no ha desplazado a los radiólogos, pese a que la IA supera consistentemente a los humanos en benchmarks de detección de enfermedades desde 2017.
Las tres razones:
1.- Los benchmarks no son el mundo real: Los modelos de IA rinden extraordinariamente bien en entornos controlados, pero su rendimiento cae hasta un 20% cuando se aplican fuera del hospital donde fueron entrenados. Un modelo entrenado con radiografías de adultos no funciona fiablemente con radiografías de niños. Un algoritmo que detecta neumonía falla ante presentaciones sutiles o cuando otras patologías imitan los síntomas. Como señala una radióloga pediátrica de la Universidad de Sheffield: «Todo el mundo cree que los niños son adultos pequeños, pero no lo son».
2.- El trabajo del radiólogo es mucho más que analizar imágenes: Un estudio de 2012 reveló que los radiólogos dedican solo el 36% de su tiempo a la interpretación directa de imágenes. El resto se destina a supervisar procedimientos, comunicarse con otros médicos y pacientes, decidir qué pruebas son necesarias, formar a residentes y combinar la información de las imágenes con el historial clínico para un diagnóstico integral. Como lo expresó Jensen Huang: «El objetivo de un radiólogo no es estudiar imágenes, sino diagnosticar enfermedades».
3.- Dos pares de ojos son mejores que uno: En contextos de alto riesgo donde el coste de un error puede ser catastrófico, la combinación humano-IA produce mejores resultados que cualquiera de los dos por separado. La IA acelera el triaje y detecta casos críticos, pero el radiólogo humano aporta el juicio clínico, el contexto del paciente y la capacidad de notar anomalías que el algoritmo no fue entrenado para buscar. Las aseguradoras aún se niegan a cubrir diagnósticos totalmente autónomos, y la FDA mantiene requisitos más estrictos para herramientas que operan sin supervisión humana.
¿Y en el mundo legal?
Hay bastantes proclamas sobre la “muerte” de los abogados a manos de la IA, pero diría que ninguna por algún padre de la criatura 😅 Sea como sea, si analizamos estos tres factores desde la perspectiva del ejercicio de la abogacía, encontramos paralelismos cuanto menos curiosos.
A) Los benchmarks legales tampoco son el mundo real: Una IA puede aprobar el examen de acceso a la abogacía estadounidense o superar tests de conocimiento jurídico (lo llevan haciendo desde 2023), pero aplicar ese conocimiento a un caso concreto requiere mucho más que reconocer patrones. Cada jurisdicción tiene sus peculiaridades, de modo que un modelo entrenado con jurisprudencia del Tribunal Supremo español podría no captar los matices del derecho francés. Un contrato que funciona bajo derecho inglés necesita adaptaciones fundamentales para ser válido bajo derecho continental. Y los criterios de las agencias de protección de datos varían significativamente entre países, incluso dentro del marco del RGPD.
B) El trabajo del abogado es mucho más que redactar documentos o buscar jurisprudencia: De forma análoga a los radiólogos, las tareas que la IA puede automatizar (búsqueda de precedentes, revisión y redacción de contratos tipo o generación de borradores) representan solo una parte del valor que aporta un abogado. El ejercicio de la abogacía implica asesorar a clientes en situaciones de incertidumbre, negociar acuerdos, anticipar riesgos que no están escritos en ningún documento, gestionar relaciones con tribunales y contrapartes, y aplicar juicio ético a situaciones complejas. Como diría Jensen Huang adaptado a nuestro sector: «El objetivo de un abogado no es (sólo) redactar contratos, sino proteger los intereses de sus clientes».
C) En Derecho, dos pares de ojos también son mejores que uno: Hoy por hoy y en la gran mayoría de casos, la responsabilidad profesional del abogado no es delegable en un algoritmo. Ningún seguro de responsabilidad civil profesional cubrirá errores derivados de confiar ciegamente en el output de una IA. Y en ámbitos como el derecho penal, el derecho de familia o la protección de datos, donde las decisiones pueden afectar seriamente a personas concretas, la supervisión humana no es solo una buena práctica: es una exigencia ética y, cada vez más, normativa (pensemos en el artículo 22 del RGPD sobre decisiones automatizadas o en el propio Reglamento de IA).
A todo lo anterior hay que sumar algo particular, el fenómeno económico conocido como la paradoja de Jevons: cuando una tecnología hace más eficiente el uso de un recurso, la demanda de ese recurso puede aumentar en lugar de disminuir. En radiología, la digitalización de imágenes aumentó la productividad un 27% para radiografías simples y un 98% para tomografías, pero lejos de reducir la demanda de radiólogos, la utilización de pruebas de imagen por paciente aumentó un 60% entre 2000 y 2008.
¿Podría ocurrir algo similar en el sector legal? Cuando la revisión de contratos se acelere mediante IA, los clientes podrían demandar due diligences más exhaustivas. Cuando la búsqueda de jurisprudencia se automatice mucho, los informes legales podrían incorporar más precedentes y análisis más profundos. Cuando los borradores se generen más rápido, los clientes podrían esperar más iteraciones y personalización. Por tanto, quizá la IA no reduce necesariamente el trabajo, pero podría expandir las expectativas sobre qué constituye un servicio legal de calidad.
Todo lo anterior no obvia los problemas de alucinaciones, desinformación, seguridad, etc. Pero eso también puede ocurrir a radiólogos.
Además, podría argumentarse que un elemento que diferencia al sector legal del sanitario es la existencia de una cadena de valor judicial donde múltiples actores interactúan. Los radiólogos trabajan dentro de hospitales, pero los abogados operan en un ecosistema más complejo que incluye jueces, procuradores, notarios, registradores y funcionarios de la Administración.
Quizá la pregunta sobre si la IA desplazará a los abogados depende en parte de qué ocurra con los jueces. Si los tribunales mantienen procesos que requieren intervención humana cualificada (y todo indica que así será, dado el derecho a la tutela judicial efectiva y las garantías del proceso debido), los abogados seguirán siendo necesarios como intermediarios especializados. Un algoritmo puede analizar un caso, pero comparecer ante un tribunal, negociar con la contraparte o adaptar la estrategia en tiempo real durante una vista o reunión requiere capacidades que trascienden el procesamiento de información.
En resumen, la experiencia de los radiólogos sugiere que las predicciones catastrofistas sobre el desplazamiento laboral por IA deben tomarse con cierta cautela, especialmente para profesiones complejas donde la tarea automatizable es solo una parte del valor aportado (incluso las muy vinculadas al conocimiento).
Después de todo, parece que los paralelismos entre unos y otros son relevantes: trabajo complejo y multidimensional, necesidad de juicio contextualizado, responsabilidad profesional no delegable y un ecosistema institucional que requiere intervención humana cualificada.
No obstante, convendría no caer en la complacencia. La diferencia entre un radiólogo que usa IA y uno que no la usa será cada vez mayor. Por lógica lo mismo ocurrirá con los abogados. Sirva como ejemplo el estudio de este verano sobre gastroenterólogos en Polonia, según el cual los profesionales que se habían acostumbrado a usar la IA para identificar pólipos y otros males, cuando perdían acceso a la IA empeoraban sus resultados un 20%. 😅
Nada, nos leemos en 10 años para ver qué tal las cosas ✌️
Jorge Morell Ramos
Dicho esto, ahí va la actualidad del 10 al 16 de noviembre de 2025 en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).
88 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otras.