10 tendencias en IA y Derecho para 2026
CALENDARIO de próximos CURSOS 😄
¡Feliz año! Ya que estamos de estreno, miremos la bola de cristal para anticipar algunas de las cosas de las que quizá hablaremos este año en materia de IA y Derecho 🔮
Vamos a ello.
1.- AI Act o el Reglamento europeo en materia de IA (RIA): este año la mayoría de la norma debería ser aplicable (desde el 2 de agosto de 2026), ya sea en materia de transparencia, sistemas de alto riesgo o normativas y autoridades de control nacionales. Además, se espera otra tonelada de documentación oficial por parte de Europa (entre otras, llegarán guías sobre clasificaciones de alto riesgo, deberes de transparencia, informes de incidentes, responsabilidades de la cadena de valor, requisitos simplificados del sistema de gestión de calidad y una plantilla para la evaluación del impacto de los derechos fundamentales). Pero está ahí el nubarrón del Omnibus Digital… Por tanto, hablaremos mucho de RIA, pero quién sabe de qué partes 😅
2.- Ómnibus Digital: la actual espada de Damocles sobre la regulación europea. Propone modificaciones en múltiples normas, incluido el reglamento sobre IA. Plantea unos plazos de aplicación dignos de un sudoku master 🫠 Además, sigue siendo propuesta y si se aprueba, es posible que ocurra cuando RIA ya resulte aplicable. En ese caso, parece que la Comisión Europea aplicaría como plan B una propuesta independiente solo para retrasar el régimen de alto riesgo de RIA. Llegue o no a tiempo, hablaremos mucho de Ómnibus este 2026.
3.- La transparencia: ya nos llegue RIA en plazo, la versión Omnibus o todo a la vez y desordenado, lo normal es que hablemos mucho de transparencia este 2026. Los modelos de imagen y vídeo no dejan de mejorar y están tensionando montones de actividades: por ejemplo, se está usando IA para falsificar la titularidad y autenticidad de obras de arte, Por si fuera poco, las gafas con cámaras e IA no dejan de avanzar y ahora sin grandes dificultades pueden reconocer a casi cualquiera por la calle. Todo eso sin olvidar que según el Foundation Model Transparency Index de Stanford, en 2025 la puntuación media de transparencia de los desarrolladores de modelos fundacionales (como Google u OpenAI) ha disminuido 17 puntos 😬
4.- The Enterprise year: este año seguramente oiremos hablar mucho a los laboratorios de IA (OpenAI, Anthropic, Google DeepMind y más) sobre la importancia de la empresa y la gran empresa. Hay que empezar a hacer pasta y ahí es más fácil. Además, si funciona es más recurrente. Ya dijo Sam Altman a final de 2025 que “Enterprise” es una prioridad para OpenAI en 2026; Anthropic solo tiene el foco puesto en B2B; y Google DeepMind no deja de lanzar novedades para empresa (véase hace un mes su Zapier particular vía Gemini). Por lógica el mayor foco en empresa debería ayudar a que las IAs tenga más opciones a nivel de cumplimiento legal, ¿no? Veremos 😋
5.- “Acqui-hires” o adquisiciones encubiertas: hasta el último día de 2025 hemos tenido ejemplos de “acqui-hires” en materia de IA, Nvidia pagando 20 billones de dólares por Groq (uno de sus principales competidores), pero no para adquirir la empresa, sino para llevarse al 90% de la plantilla (fundadores incluidos), compensar a los inversiones iniciales y licenciar su tecnología. Eso sí, de forma no exclusiva 🥸 Las “acqui-hires” es la fórmula que las Big Tech han encontrado estos últimos años para seguir adquiriendo talento en sector IA pero sin topar con el lento, y cada vez menos receptivo mundo, de las autoridades de defensa de la competencia. La idea es que no se adquiere a la empresa (que sigue existiendo), pero en la práctica casi se vacía de contenido (en especial del talento humano). Luego la tecnología se licencia y queda un esqueleto de empresa. Lo ha hecho Microsoft con Inflection, Meta con Scale AI, Amazon con Adept, Google con Windsurf y Character AI o ahora Nvidia con Groq. En 2026 seguirá pasando, pero a Europa y EEUU ya les está empezando a llamar mucho la atención.
6.- La memorizacíón, ser o no ser: en IA hablamos de memorización cuando un modelo ha aprendido casi literalmente los datos con los que ha sido entrenados. Por tanto, cuando se le pide sobre contenido que ya ha visto, responde muy bien, Tan pronto le pides de algo diferente de lo que no tiene memoria, baja el rendimiento. La idea es el que modelo no memorice, sino que aprenda patrones del contenido y lo aplique luego según el contexto. Legalmente la memorización es un problema que hemos visto analizado en 2025 en varios asuntos (Getty Images en UK o GEMA en Múnich). La idea es que si hay memorización, hay potencial reproducción del contenido y por tanto ya entramos en licencias y posibles vulneraciones. De los fallos judiciales actuales, solo en el caso GEMA ha entendido el tribunal que hay memorización en un modelo de IA. Con el centenar largo de pleitos que hay en marcha a nivel mundial, la memorización volverá a ser concepto clave en 2026 📝
7.- Caso Like Company en el TJUE: el asunto C-250/25 (Like Company) es la primera petición de decisión prejudicial (remitida por el Budapest Környéki Törvényszék de Hungría) relativa a IA (Gemini) en la UE: a) posible comunicación al público al mostrar respuestas que reproducen parcialmente textos de un editor de prensa y b) la posible reproducción asociada al entrenamiento y a la generación de respuestas, con el encaje (o no) en la excepción de minería de textos y datos. No hay fechas para nada todavía, pero viendo que el tiempo medio de resolución de una cuestión prejudicial ronda los 18 meses, al menos las conclusiones del Abogado General deberían caer este 2026. Por tanto, buen tema a seguir 📍
8.- “Harness” será tu nuevo mejor amigo: si tuviera que apostar por un concepto que durante este año veremos muchas veces repetido y que quizá genere hasta nuevos “expertos”, sería el de Harness. En el sector programación se viene hablando del mismo los últimos meses de 2025 y se traduce como arnés o cableado. La idea es que el modelo de IA es importante y permite hacer muchas cosas, pero mientras mas avanzamos hacia el mundo de los agentes, más importancia adquieren elementos alrededor del modelo: la memoria, el system prompt, el contexto, el flujo, la verificación, las etiquetas, las herramientas, etc. De modo que el modelo puro y duro ya no es lo único relevante en la generación de buenos resultados, sino que el “envoltorio” del que se acompaña (ese arnés o harness) resulte igual o más importante. En eso consiste “harness” 🤖 Que la “capa” que envuelve al modelo cada vez se haga más gruesa y adquiera más valor cómo se organiza y estructura (también legalmente), es lo que quizá salve a “wrappers” como Harvey y tantos otros servicios que dependen hoy en día al completo de los LLM de OpenAI, Google o Anthropic.
9.- ChatGPT y la DSA, se viene pelea: A finales de octubre de 2025 OpenAI anunció que ChatGPT tiene en la UE 120,4 millones de usuarios al mes. Eso supera por mucho el límite que establece la DSA a efectos de ser considerado una “Very Large Online Platforms o VLOP“ (45 millones). La cuestión ahora es si la Comisión Europea va a considerar que ChatGPT debe cumplir con las estrictas obligaciones derivadas de ser considerado un VLOP, ya que la DSA es quizá una de las normas europeas más odiadas actualmente por la Administración Trump 👀 A finales de año, los legisladores presionaban a la Comisión para que designe a ChatGPT como VLOP, pero está claro que no es una decisión simple y que tendrá consecuencias si va adelante. ChatGPT Vs DSA será muy probable materia de 2026.
10.- Cómo escapar de la “simulación”: en noviembre de 2025, Sean J. Westwood, un politólogo del Dartmouth College en los EEUU, demostró que al usar agentes de IA es sencillo hacer que los bots completen encuestas en línea sin dar ninguna señal de su verdadera identidad. Los bots de Westwood generaron y llenaron respuestas realistas para personas con creencias particulares, evadiendo el 99,8% de las 6.000 comprobaciones destinadas a eliminar a los encuestados no humanos o falsos, desde Captchas a puzzles variados 🥶 Por otro lado, solo el 3,7% de los británicos fue capaz de diferenciar video real de deepfakes de personas famosas. Además, el número de CVs presentado en LinkedIn aumentó más del 45% en el último año, con un promedio de 11.000 aplicaciones por minuto y con papel destacado de la IA. Podría citar docenas de otros ejemplos similares. La cuestión de fondo para mí es: si cada vez será un poco más difícil discernir lo real de lo falso, ¿cómo haces para salir de la “simulación” y asegurar la parcela de realidad que te corresponda, ya sea evaluar encuestas, gestionar CVs o manejar ciberataques? Ya que esto no irá a menos y diría que vamos a necesitar algo más que simples etiquetas de transparencia. El temor quizá es que si la realidad se nos va escapando lentamente de entre los dedos, para solucionarlo recurramos a verificaciones cada vez más extremas, y con ello a muchos más datos, patrones de conducta e información de usuarios. O incluso volver a la presencialidad 🤷🏻♀️
El avance lento pero inexorable de la simulación será un tema de 2026, aunque seguramente también de las próximas décadas.
¡Feliz año!
Esta semana la newsletter abierta para todos. La próxima semana vuelvo al formato mitad gratis, mitad de pago.
Jorge Morell Ramos
Dicho esto, ahí va la actualidad del 1 al 7 de diciembre de 2025 en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).
109 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otras.
REGULACIÓN
EUROPALa presidencia chipriota de la UE apuesta por una soberanía cloud que mantenga a EEUU de su lado: Euractiv informó de que el viceministro de política digital de Chipre, Nicodemos Damianou, declaró que la soberanía en la nube no debería llegar tan lejos como para bloquear a proveedores no europeos; la próxima presidencia de la UE pretende equilibrar la soberanía digital con el mantenimiento de buenas relaciones con los proveedores estadounidenses.
Organismos de la UE bloquean a una asociación de aplicaciones vinculada a EEUU en el instituto de estándares de telecomunicaciones: Euractiv reveló que los organismos nacionales de normalización detuvieron el intento de The App Association de unirse al Instituto Europeo de Normas de Telecomunicaciones porque temían que la asociación vinculada a EEUU priorizara el lobbying sobre el trabajo técnico; los críticos temen que la membresía aumentaría la influencia estadounidense sobre los estándares digitales de la UE.
La agencia de la UE afirma que es necesaria una definición amplia de sistemas de IA para proteger los derechos: Es necesaria una definición amplia de sistemas de IA que incluya modelos menos complejos para garantizar una protección adecuada de los derechos fundamentales, según afirmó la Agencia de Derechos Fundamentales de la Unión Europea en un informe publicado el jueves. La agencia recomendó normas más claras para identificar sistemas de IA de alto riesgo, una supervisión independiente más fuerte más allá de las autoevaluaciones, y mejores orientaciones para proteger todos los derechos. Al acceder a la documentación de los sistemas de IA, también deben garantizarse salvaguardias para los derechos fundamentales, señaló la agencia.
El Banco Europeo de Inversiones y la Comisión acuerdan acelerar la inversión en gigafactorías de IA: El Banco Europeo de Inversiones y la Comisión Europea han firmado un acuerdo para ayudar a acelerar la inversión y el desarrollo de gigafactorías europeas de IA, centros de computación a gran escala para entrenar sistemas avanzados de IA. En un comunicado, la Comisión dijo que el BEI ayudaría a dar forma a ideas iniciales en proyectos que se presentarán en la convocatoria de Gigafactorías de IA de la UE, prevista para principios de 2026.
Los proyectos de instalaciones de IA de la UE estarán abiertos a participantes extranjeros, con limitaciones: La Comisión Europea permitirá la participación extranjera en proyectos de instalaciones de IA financiados por la UE, siempre que los inversores europeos mantengan la mayoría y se excluya a los proveedores de alto riesgo. La demanda ha sido fuerte antes de una licitación formal que se abrirá a principios de 2026. La UE seguirá dependiendo de chips de IA extranjeros, y el Banco Europeo de Inversiones ayudará a evaluar y financiar los proyectos en función de su viabilidad financiera, técnica y medioambiental.
Comités parlamentarios de la UE cuestionan el proceso para las enmiendas a la ley de IA: Dos comités del Parlamento Europeo han cuestionado los planes para la aprobación de enmiendas a la ley de inteligencia artificial de la UE, una señal temprana de que las disputas internas podrían ralentizar el ritmo del proceso legislativo, según MLex.
La Comisión de la UE se dispone a prolongar la incertidumbre sobre la regulación de la IA en el lugar de trabajo: Si proponer normas vinculantes sobre la IA en el lugar de trabajo o no es una cuestión que sigue causando división en la Comisión Europea. La comisaria de asuntos sociales de la UE, Roxana Mînzatu, está a favor de la legislación, pero enfrenta una fuerte resistencia interna de la comisaria digital Henna Virkkunen y una agenda política hostil a las nuevas normas. Los documentos que se publicarán el miércoles mantienen el camino abierto pero estrecho, enfatizando las leyes existentes y dejando incierta la intervención futura.
Los países de la UE cuestionan el enfoque propuesto para retrasar las obligaciones clave de la Ley de IA: Un retraso planificado para las obligaciones clave de la Ley de IA de la UE ha sido cuestionado por los Estados miembros, que advierten que el enfoque propuesto por la Comisión Europea carece de criterios claros, previsibilidad y suficiente participación de las autoridades nacionales. Incluso los partidarios de una pausa plantearon preocupaciones, mientras que otros preguntaron qué sucede si las herramientas de cumplimiento relevantes no están listas incluso con el nuevo calendario o si las enmiendas no se aprueban antes de la fecha límite de agosto de 2026.
La retirada de la propuesta de responsabilidad por IA no será impugnada por los eurodiputados: Una abrumadora mayoría de legisladores del Comité de Asuntos Jurídicos del Parlamento Europeo declinó impugnar la retirada de la Directiva de Responsabilidad por IA en una votación el miércoles. La sólida oposición del centro-derecha resultó decisiva, mientras que los legisladores progresistas decidieron no presionar para no perjudicar su caso en otra demanda. El voto del comité probablemente pone fin a la propuesta definitivamente.
El Escudo Democrático abordará la fiabilidad de las noticias y los desafíos de la IA, dicen los ministros de la UE: Revisar la responsabilidad editorial de los actores emergentes, las plataformas y los servicios de noticias impulsados por IA y comprobar si las normas de rendición de cuentas existentes siguen siendo adecuadas, dijeron los ministros de cultura de 26 países de la UE tras una reunión el viernes sobre noticias fiables como parte del próximo Escudo Democrático Europeo.
Las partes de la UE sobre IA y ciberresiliencia compilan una lista inicial de preguntas: Los participantes que redactan orientaciones sobre la interacción entre la Ley de IA de la UE y la Ley de Ciberresiliencia han esbozado preguntas iniciales sobre el ámbito de aplicación, las obligaciones de seguridad superpuestas, las definiciones, las evaluaciones de conformidad y las obligaciones de notificación. Esta lista inicial señala áreas grises legales que las directrices deben clarificar, incluyendo productos sujetos a ambas leyes, y cómo abordar requisitos legales y procedimientos de evaluación de conformidad superpuestos.
La votación sobre derechos de autor e IA se pospone a enero en el comité del Parlamento Europeo: Un acuerdo sobre la posición del Parlamento Europeo respecto a las normas de derechos de autor sobre IA se ha pospuesto hasta finales de enero, mientras los legisladores continúan debatiendo cómo deben ser compensados los creadores cuando su contenido se utiliza para entrenar IA.
La UE y Singapur alinean prioridades en IA y digital: Representantes de la UE y Singapur se reunieron en Bruselas el lunes como parte del segundo consejo de asociación digital, buscando fortalecer su cooperación digital. La seguridad de la IA, futuros intercambios sobre modelos de lenguaje, ciberseguridad y medidas más fuertes para gestionar riesgos online y proteger a los consumidores estuvieron entre las prioridades discutidas, dijo la Comisión Europea en un comunicado.
La Comisión Europea solicita opiniones sobre el cumplimiento de los derechos de autor en IA: La Comisión Europeaestá solicitando comentarios sobre las obligaciones de derechos de autor para los proveedores de IA de Propósito General en relación con la Ley de IA y el Código de Prácticas de IA. Las empresas y particulares pueden expresar sus opiniones, particularmente sobre diferentes soluciones de exclusión (opt-out) para los titulares de derechos, y pueden expresar interés en participar en talleres de seguimiento. Los resultados se publicarán en una lista de soluciones de exclusión acordadas, revisada cada dos años, dijo la Comisión. La fecha límite para comentarios es el 9 de enero.
La Comisión Europea solicita opiniones sobre el sandbox regulatorio de IA: La Comisión Europea está buscando comentarios sobre sus nuevas normas para sandboxes regulatorios de IA, un entorno para que las empresas prueben productos de IA supervisados por el regulador. Los particulares y expertos pueden expresar sus opiniones sobre las normas propuestas, incluyendo cómo participar en el sandbox y sus obligaciones después de la participación. El período de consulta dura hasta el 30 de diciembre.
La Comisión Europea prepara la aplicación de las normas sobre modelos de IA: La Comisión Europea está preparando un único acto de ejecución para establecer procedimientos de aplicación de las normas de la Ley de IA sobre modelos de IA de propósito general. El reglamento de ejecución definirá cómo funcionan las investigaciones, las evaluaciones de modelos, la confidencialidad y las sanciones, basándose en precedentes. Los funcionarios nacionales discutirán los procedimientos el 15 de diciembre.
Un estudio del Parlamento Europeo considera que un sistema de licencias obligatorias es lo mejor para equilibrar IA y derechos de autor: Un sistema de licencias obligatorias, con regalías fijadas por los reguladores, se considera la mejor opción política para cómo el derecho de autor debería abordar el uso de obras creativas para el entrenamiento de IA, según un estudio publicado el miércoles por el Servicio de Investigación del Parlamento Europeo para el Comité de Asuntos Jurídicos. Compensar a los creadores por el uso de sus obras en el entrenamiento de IA es clave para mantener la producción cultural, señaló. Mientras tanto, también dijo que "las excepciones de derechos de autor sin remuneración y las opciones de exclusión parecen la peor opción política".

Trump firmará una orden que crea una norma nacional de IA: Reuters informa de que Donald Trump planea firmar una orden ejecutiva creando una única norma nacional para la inteligencia artificial que prevalecería sobre las leyes estatales; las empresas tecnológicas dicen que las diferentes regulaciones estatales obstaculizan la innovación y una norma unificada ayudará a Estados Unidos a competir, aunque se espera oposición bipartidista a la medida.
Las grandes tecnológicas reciben advertencias sobre outputs "delirantes" de la IA por parte de fiscales generales de EEUU: Reuters señaló que Microsoft, Meta, Google, Apple y otros gigantes tecnológicos fueron advertidos por un grupo bipartidista de fiscales generales estatales de EEUU de que las alucinaciones de los chatbots y otros "outputs delirantes"podrían violar las leyes estatales de protección al consumidor y de salud mental; la carta instó a auditorías independientes y mejoras de seguridad.
Trump amenaza con recortar fondos a los estados por las regulaciones de IA: Según Reuters, Trump amenazó con recortar fondos federales de banda ancha a los estados cuyas leyes de IA, según él, asfixian la innovación e insistió en que las aprobaciones de IA provengan de una fuente federal central; los opositores argumentan que la orden arriesga crear un "salvaje oeste sin ley" para el desarrollo de IA.
La orden de Trump dirigida a las leyes estatales de IA enfrenta obstáculos políticos y legales: Reuters explicó que la orden ejecutiva de IA de Trump ordena a las agencias federales demandar a los estados cuyas regulaciones de IA se consideren perjudiciales y retener fondos, vinculando las leyes de IA a los fondos de banda ancha; se espera que los estados impugnen la orden e incluso algunos republicanos se oponen.
El segundo intento de preempción de leyes estatales de IA en EEUU muestra una estrategia perdedora: El aparente fracaso esta semana del segundo intento de los republicanos de EEUU de prevalecer sobre las leyes estatales de inteligencia artificial muestra que los defensores de tal acción tendrán que ajustar su estrategia si esperan superar la oposición coordinada entre partidos, potencialmente abordando el desafío de desarrollar un marco regulatorio federal.
Un grupo de política de IA de EEUU celebra que la preempción de leyes estatales de IA se retire de las negociaciones de la NDAA: El presidente de Americans for Responsible Innovation, Brad Carson, celebró los comentarios del martes del líder de la mayoría de la Cámara de Representantes de EEUU, Steve Scalise, de que el Congreso no incluirá lenguajepara prevalecer sobre las leyes estatales de IA en la aún por finalizar Ley de Autorización de Defensa Nacional. "Al hacer otro intento apresurado de colar la preempción en el Congreso, los actores de la industria que luchan contra las salvaguardias de IA activaron un movimiento que respondió", dijo Carson.
Demócratas de EEUU condenan la preempción de la regulación estatal en el relanzamiento de un proyecto de ley de derechos civiles de IA: El senador demócrata de EEUU Ed Markey de Massachusetts y la representante Yvette Clarke, demócrata de Nueva York, anunciaron el martes que están reintroduciendo la Ley de Derechos Civiles de IA, legislación antidiscriminación que serviría como piso mínimo para que los estados construyan sobre ella, en medio de informes de que los republicanos del Congreso quieren bloquear a los estados de regular la IA.
El personal de la FTC de EEUU respalda una enmienda propuesta para "acabar con el control monopolístico de la ABA" en Texas: El personal de la Comisión Federal de Comercio de EEUU respaldó una enmienda propuesta a las Reglas que Rigen la Admisión al Colegio de Abogados de Texas que, según dice, eliminaría la "autoridad de la ABA para dictar los requisitos educativos necesarios para tomar el examen de abogacía y ejercer la abogacía" en el estado. En una carta a la Corte Suprema de Texas, el personal de la FTC dijo que la norma actual "efectivamente da a la ABA, una organización que previamente ha burlado el estado de derecho que pretende promover, la capacidad de excluir a participantes del mercado que competirían con sus miembros". Argumentaron que la enmienda propuesta "pondría fin al control monopolístico de la ABA sobre si la educación legal de un solicitante del colegio de abogados de Texas es suficiente para la admisión".
La prohibición de leyes estatales de IA se retira del proyecto de ley de defensa mientras continúa la lucha: El renovado impulso para bloquear a los estados de promulgar leyes para regular las tecnologías emergentes de inteligencia artificial es poco probable que llegue a un proyecto de ley de financiación de defensa que se espera aprobar a finales de año, ha confirmado el segundo republicano de mayor rango de la Cámara, aunque destacó que la propuesta sigue activa y podría resurgir en otro lugar.
Fiscales generales instan al Congreso a rechazar la prohibición de Trump sobre las leyes estatales de IA: Fiscales generales de 32 estados están instando al Congreso a preservar su capacidad de aprobar leyes que regulen la inteligencia artificial, sosteniendo que la renovada propuesta de la administración Trump de insertar una moratoria en un proyecto de ley de gastos federales dejaría a los estados impotentes frente a estafas impulsadas por IA, alucinaciones dañinas de chatbots y otros peligros emergentes.
OpenAI respalda tres propuestas bipartidistas para fortalecer la protección de menores online: OpenAI esta semana respaldó tres propuestas bipartidistas dirigidas a fortalecer las protecciones para menores en línea: la Ley de Promoción de un Internet Seguro para Menores (HR 6289), introducida por los representantes Lee y Soto, que encargaría a la FTC y otras partes interesadas un esfuerzo a escala nacional para promover el uso seguro de internet por menores; la Ley de Advertencias y Recursos de IA para la Educación (AWARE) (HR 5360), introducida por los representantes Houchin y Auchincloss, que requeriría el desarrollo de recursos educativos para padres, educadores y jóvenes sobre el uso responsable de chatbots de IA; y la Ley de Evaluación de Herramientas de Seguridad para Padres y Menores, introducida por los representantes Fulcher y Landsman, que apoyaría el desarrollo y adopción de herramientas que permitan el etiquetado de contenido, configuraciones apropiadas para la edad y controles de seguridad flexibles para las familias.
El gobernador de Florida propone una "Carta de Derechos" de IA en medio del rechazo federal: El gobernador republicano de Florida propuso el jueves un marco para proteger a los consumidores de los riesgos potenciales planteados por los sistemas de inteligencia artificial, incluyendo usos no autorizados de sus datos y los daños que los chatbots representan para los menores, una medida que llega mientras la administración Trump y algunos republicanos en el Congreso presionan para que se bloquee a los estados de regular la tecnología emergente.
Un panel de inversores de la SEC presiona por divulgaciones corporativas de IA: Un grupo de trabajo de la Comisión de Bolsa y Valores de EEUU está instando a la agencia a adoptar regulaciones que podrían estandarizar la forma en que las empresas que cotizan en bolsa informan sobre la manera en que utilizan la inteligencia artificial, argumentando el jueves que los inversores no siempre están siendo informados sobre los riesgos de la tecnología.
Un grupo de trabajo de IA de Washington propone salvaguardias y requisitos de divulgación: Un grupo de trabajo del estado de Washington presentó el lunes un conjunto de salvaguardias propuestas y requisitos de divulgación para el uso responsable de la inteligencia artificial, incluyendo obligar a los desarrolladores a compartir públicamente detalles sobre los datos utilizados para entrenar sus modelos y exigir a las fuerzas del orden que divulguen el uso de IA también.
El impulso de Trump para anular las regulaciones estatales de IA se estanca: La presión del presidente Trump para bloquear la regulación de IA a nivel estatal está fracasando en el Capitolio. La Casa Blanca y sus aliados en el Congreso han llegado a una propuesta de preempción de IA y están presionando, pero el tiempo se acaba y la oposición está creciendo. Fuentes familiarizadas con el asunto describieron la propuesta del presidente del Comité de Comercio del Senado, Ted Cruz (R-Texas), y del líder de la mayoría de la Cámara, Steve Scalise (R-La.), como "una posibilidad remota", "está muerta" y "fracasará".
La legislatura de Utah busca obligar a los centros de datos a informar sobre el uso de agua: La Legislatura del Estado de Utah está acelerando un proyecto de ley que obligaría a los centros de datos a informar cuánta agua utilizan. El jueves, la Comisión Legislativa de Desarrollo del Agua aprobó por unanimidad un proyecto de ley patrocinado por la Rep. Jill Koford, R-Ogden, que requeriría que las docenas de centros de datos en todo el estado informen cuánta agua desvían, usan y descargan.
RESTO DEL MUNDOPlataformas chinas firman el primer compromiso de IA responsable tras una investigación que señala lagunas en la supervisión: Ocho grandes empresas de plataformas chinas, incluyendo JD.com, Meituan, Douyin y Xiaohongshu, firmaron el jueves el primer compromiso de China con la asociación de consumidores de Pekín para fortalecer la aplicación responsable de herramientas de inteligencia artificial, tras una investigación de tres meses que encontró preocupaciones sobre presentadores generados por IA no divulgados, marketing engañoso y supervisión débil. El compromiso de seis puntos establece "líneas rojas de cumplimiento", incluyendo una prohibición de suplantación de celebridades con deepfakes, requisitos claros de etiquetado de IA, monitoreo mejorado que combina detección automatizada con revisión humana y sanciones por manipulación de etiquetas.
China y Francia buscan una cooperación más estrecha en comercio digital, nuevas energías e IA en conversaciones en Pekín: China pidió una cooperación más profunda con Francia en comercio digital, economía verde, nuevas energías e inteligencia artificial el jueves mientras el presidente Xi Jinping se reunía con el presidente francés Emmanuel Macron en Pekín. Según el Ministerio de Asuntos Exteriores, Xi instó al diálogo igualitario y un acceso más amplio al mercado mientras advertía contra el proteccionismo, y destacó nuevas oportunidades de cooperación en IA, biotecnología, servicios digitales y energías renovables con Francia. También presionó a París para garantizar un entorno estable y no discriminatorio para las empresas chinas. Macron señaló disposición para la cooperación en gobernanza de IA, comercio ampliado e intercambios culturales.
El regulador financiero del Reino Unido esperará antes de establecer normas de IA, dice Rathi: El regulador financiero del Reino Unido advirtió que la Unión Europea se adelantó con su emblemática regulación de inteligencia artificial, argumentando que la tecnología de rápida evolución hace que las normas prematuras sean arriesgadas y propensas a quedar obsoletas.
Ministerios surcoreanos acuerdan acelerar la adopción de IA en sectores de defensa: El Ministerio de Defensa Nacional de Corea del Sur dijo que firmó un memorando de entendimiento con otros tres ministerios el miércoles para acelerar la cooperación en el desarrollo y adopción de tecnología de inteligencia artificial para su uso en diversas operaciones de defensa nacional. A través de este acuerdo, los ministerios han establecido un marco de cooperación que abarca desde asegurar tecnologías clave de IA hasta demostraciones en el sector de defensa, aplicaciones industriales y la difusión de tecnologías de IA a startups y pymes, dijo el ministerio de defensa.
China planea una supervisión más estricta de ciberseguridad e IA bajo una nueva estrategia quinquenal, dice un funcionario: El regulador de internet de China intensificará las salvaguardias de ciberseguridad, reforzará las defensas de seguridad de datos y endurecerá la supervisión de la seguridad de la IA mientras avanza en la implementación de recomendaciones bajo el próximo 15º Plan Quinquenal, dijo Zhuang Rongwen, director de la Administración del Ciberespacio de China. Las iniciativas clave incluyen fortalecer la protección de la infraestructura de información crítica, usar revisiones de ciberseguridad y evaluaciones de seguridad de servicios en la nube para reforzar la seguridad de la cadena de suministro, y endurecer las normas para la protección clasificada y escalonada de datos de red, así como las evaluaciones de riesgos. Los reguladores también planean refinar la gestión de datos transfronterizos, intensificar las pruebas de seguridad rutinarias de aplicaciones y combatir los abusos de datos personales. Zhuang dijo que una estrategia de IA "inclusiva y prudente" traerá nuevos marcos de supervisión, obligaciones de seguridad más claras, herramientas de monitoreo de riesgos más fuertes y un sistema de etiquetado para contenido generado por IA, además de directrices de seguridad específicas por sector.
Un informe de un grupo tecnológico insta al Reino Unido a buscar un sistema de garantía de IA más cohesivo: El Reino Unido debería buscar la garantía de IA para mejorar la confianza pública en las tecnologías si quiere alcanzar sus ambiciones generales en IA, encontró un informe del grupo de lobby de la industria TechUK el miércoles. Mientras el gobierno ha establecido financiación y una hoja de ruta para convertirse en líder en las pruebas y certificación de IA, el informe le pide que desarrolle enfoques sectoriales más fuertes y colaboración intersectorial. Examina los servicios financieros, la salud, la educación, la justicia y la defensa.
El gobierno del Reino Unido está más centrado en legislación específica que en un proyecto de ley de IA, dice la ministra de tecnología: La ministra de tecnología del Reino Unido ha dicho a los legisladores que no espera un proyecto de ley integral de IA en la próxima sesión del Parlamento, sino una legislación más específica para abordar problemas emergentes.
NatWest, Monzo y Santander del Reino Unido entre las primeras empresas en probar IA con el regulador financiero británico: La Autoridad de Conducta Financiera del Reino Unido ha nombrado a la primera cohorte de empresas que probarán inteligencia artificial con el regulador para comprender mejor los posibles beneficios y riesgos. Las empresas son Gain Credit, Homeprotect como parte del Grupo Avantia, NatWest, Monzo, Santander, Scottish Widows como parte de Lloyds Banking Group y Snorkl. Las solicitudes para la segunda cohorte se abrirán en enero de 2026.
La carrera de inversión en IA pone a prueba la determinación de Corea del Sur de mantener separadas las finanzas y la industria: La norma de décadas de Corea del Sur que separa el capital financiero e industrial está bajo un renovado escrutinio mientras las empresas advierten que bloquea la escala de inversión necesaria para la IA y los semiconductores. El jefe antimonopolio Ju Biung-ghi ha advertido que relajar la salvaguarda podría aumentar la concentración del mercado, incluso mientras el gobierno revisa formas de ayudar a las empresas a obtener capital. La pregunta ahora es si las medidas incrementales pueden satisfacer las demandas de financiación de la era de la IA sin revisar una de las protecciones fundamentales de gobernanza corporativa del país.
El sector de IA de Pekín superará los 64.000 millones de dólares mientras China impulsa la tecnología: El sector de inteligencia artificial de Pekín está en camino de superar los 450.000 millones de yuanes (64.000 millones de dólares) en producción industrial este año, consolidando la posición de la capital china como el principal centro de IA de China en medio de una intensificación de la competencia global en la tecnología. La ciudad ahora alberga más de 2.500 empresas de IA con 183 grandes modelos registrados, según un libro blanco del gobierno.
Japón solicita opiniones públicas mientras reestructura su estrategia de PI para la era de la IA y el impulso de estándares globales: Japón ha abierto una consulta pública sobre su próxima estrategia de propiedad intelectual, señalando que el gobierno está lidiando con cómo reestructurar su marco de PI para una economía cada vez más moldeada por datos, plataformas digitales y competencia global.
Australia no tendrá leyes de IA independientes, confirma el gobierno: El gobierno australiano mantendrá un enfoque ligero para regular la inteligencia artificial mientras continúa construyendo sobre los "marcos legales y regulatorios existentes" del país. En una declaración conjunta el martes, publicada junto con el "Plan Nacional de IA", el viceministro de Ciencia y Tecnología Andrew Charlton y el ministro de Industria e Innovación Tim Ayres dijeron que el plan de Australia garantizaría que las leyes establecidas sigan siendo la "base para abordar y mitigar los riesgos relacionados con la IA". La declaración dijo que se utilizarán 29,9 millones de dólares australianos (19,5 millones de dólares estadounidenses) para establecer el Instituto de Seguridad de IA a principios de 2026. El Plan Nacional de IA confirma que el instituto apoyará a los reguladores existentes con "asesoramiento independiente para garantizar que las empresas de IA cumplan con las leyes australianas".
La ley del Reino Unido es inadecuada para la protección contra asistentes avanzados de IA, según un estudio: La ley en Inglaterra y Gales proporciona "ninguna protección significativa" contra los daños causados por asistentes de IA para empresas e individuos, encuentra un estudio del Ada Lovelace Institute, un think tank para promover el uso de IA y datos por parte de la sociedad, y basado en análisis legal del bufete AWO Agency. El documento encuentra que ninguna legislación cubre lo que denomina Asistentes de IA Avanzados, que abarcan herramientas de IA agéntica como las últimas versiones de chatbots. Las herramientas abarcan una gama de riesgos y daños incluyendo el bienestar emocional y la influencia en la opinión, lo que significa que tanto las leyes amplias como las sectoriales específicas no logran capturarlos.
La investigación de IA de Corea del Norte aumenta los riesgos cibernéticos, advierte un instituto surcoreano: Corea del Norte está acelerando su investigación de inteligencia artificial basada en imágenes y voz de maneras que plantean crecientes riesgos militares y cibernéticos, dijo el Instituto para la Estrategia de Seguridad Nacional de Corea del Sur en un informe. Desde finales de los años 90, Corea del Norte ha desarrollado activamente algoritmos ligeros para reconocimiento facial, seguimiento de múltiples objetos, síntesis de voz y análisis de acentos que funcionan en entornos de baja potencia y pocos datos, dijo el instituto financiado por el gobierno surcoreano. Esos modelos podrían apoyar vigilancia en tiempo real, ofuscación de identidad y operaciones de ingeniería social más efectivas. Integrados en herramientas de automatización existentes utilizadas por operadores cibernéticos norcoreanos, los sistemas podrían acelerar el robo de criptomonedas y el fraude de identidad sintética, añadió.
China prepara un reglamento provisional de IA ante la cautela sobre una legislación amplia: Las autoridades de internet de China están sopesando un reglamento provisional de IA mientras una ley completa permanece en espera, según ha sabido MLex. La Administración del Ciberespacio de China, el principal regulador de internet del país, está encabezando la formulación de un marco legal transitorio, un reglamento en lugar de una ley integral, para promover y regular el desarrollo de la tecnología de inteligencia artificial, según se entiende.
Casi el 90% de las principales empresas surcoreanas utilizan IA en la gestión de personal: Una encuesta reciente a 500 grandes empresas surcoreanas encontró que casi el 90 por ciento de las principales empresas del país utilizan herramientas de inteligencia artificial, ya sea oficial o extraoficialmente, en operaciones de gestión de recursos humanos, dijo el Ministerio de Empleo y Trabajo. Específicamente, el 41,2 por ciento de los encuestados utilizan las herramientas oficialmente en asuntos de gestión de personal, mientras que el 45,5 por ciento las usan extraoficialmente. Entre las empresas que utilizan oficialmente herramientas de IA, la aplicación más común fue el proceso de contratación con el 52,8 por ciento. Esto fue seguido por un empate del 45,4 por ciento cada uno para educación y formación, y para responder a consultas relacionadas con recursos humanos, dijo el ministerio.
Las subvenciones de Japón ayudan a Micron a expandir plantas de Hiroshima para chips de memoria de grado IA: El programa de subvenciones de Japón parece estar atrayendo una inversión nueva sustancial a su envejecido sector de semiconductores, con el fabricante de chips estadounidense Micron Technology preparando supuestamente una expansión de 1,5 billones de yenes (9.600 millones de dólares) de su capacidad en su sitio de Hiroshima. La producción planificada de la empresa de chips de memoria de alto ancho de banda que alimentan el auge global de la IA subraya el papel en expansión de Japón en la cadena de suministro liderada por EEUU para chips avanzados críticos.
Organismos de normalización globales se comprometen a acciones conjuntas para avanzar en el desarrollo sostenible de la IA: Las tres principales organizaciones de normalización del mundo adoptaron el martes una declaración conjunta comprometiéndose a acciones diseñadas para avanzar en el desarrollo sostenible de la inteligencia artificial y permitir que todas las personas y la sociedad se beneficien de la revolución de la IA. En la Declaración de Seúl adoptada durante una conferencia internacional en Corea del Sur, la Comisión Electrotécnica Internacional, la Organización Internacional de Normalización y la Unión Internacional de Telecomunicaciones dijeron que "reconocen el valor de los estándares internacionales para avanzar en la IA hacia un futuro digital inclusivo, abierto, sostenible, justo, seguro y protegido para todos".
Pekín señala una aplicación más estricta de IA y ciberseguridad mientras la ley enmendada se acerca: Pekín endurecerá la supervisión de la inteligencia artificial y otras tecnologías de rápida evolución bajo su Ley de Ciberseguridadrecientemente enmendada, dijo un alto funcionario de internet el viernes, con planes adicionales para fortalecer el marco de ciberseguridad de China y agudizar las herramientas de aplicación. Las revisiones recientemente aprobadas a la Ley de Ciberseguridad del país, que entrarán en vigor el 1 de enero, endurecen las responsabilidades por violaciones de ciberseguridad e introducen un nuevo marco para la seguridad y el desarrollo de la IA.
Organizaciones de derechos instan al gobierno del Reino Unido a mantenerse al margen del debate sobre derechos de autor e IA: Las licencias de contenido para fines de entrenamiento de IA generativa no necesitan intervención regulatoria en el Reino Unido, pero sí necesitan que el gobierno se retire del debate general sobre IA y derechos de autor, escucharon los legisladores de representantes de organizaciones de gestión colectiva el martes.
Corea del Sur mejora su sistema de juicios de PI con nuevas capacidades de IA: El Ministerio de Propiedad Intelectual de Corea del Sur dijo el martes que ha completado con éxito un proyecto de tres años para mejorar su sistema de juicios y apelaciones de patentes mejorando el rendimiento general y adoptando tecnología de inteligencia artificial. El ministerio, anteriormente la Oficina Coreana de Propiedad Intelectual, dijo que el nuevo sistema utiliza herramientas de recomendación basadas en IA para clasificar aproximadamente 180.000 documentos de juicios y decisiones por tema y para resumir los fundamentos de las reclamaciones. También añade una herramienta que compara automáticamente las especificaciones registradas con las versiones corregidas, reduciendo el tiempo que los adjudicadores pasan revisando visualmente textos completos. El gobierno espera que las mejoras de IA acorten los tiempos de registro y mejoren la eficiencia.
Directrices de la UNESCO para el uso de sistemas de IA en tribunales y juzgados: Las Directrices de la UNESCO para el Uso de IA en Tribunales y Juzgados presentan el primer marco ético y operativo global para garantizar que la IA sirva a la justicia mientras defiende el estado de derecho y los derechos fundamentales.

TRIBUNALES
ClaimsHero dice que resuelve los problemas de las demandas colectivas; un juez de EEUU teme "extorsión": ¿Es ClaimsHero la próxima generación de bufete de abogados, un disruptor tecnológico-legal construido sobre tecnología de redes sociales que servirá a los consumidores mejor que los acuerdos existentes de demandas colectivas de Big Tech que típicamente proporcionan a los consumidores solo unos pocos dólares cada uno? ¿O es, como sospecha un juez federal, una jugada de "extorsión" construida sobre tecnología llamativa dirigida a apalancar reclamaciones contra gigantes tecnológicos para forzarlos a pagar, mientras engaña incluso a personas conocedoras como un periodista de investigación ganador del Pulitzer del New York Times?
Fastcase (parte de Clio) demanda a Alexi – Ahora con declaración de Mark Doble: Artificial Lawyer cubrió la demanda de Fastcase contra la plataforma de investigación legal Alexi por supuestamente usar indebidamente los datos de Fastcase; el artículo también incluyó una declaración del ejecutivo de Thomson Reuters Mark Doble, destacando la singularidad del caso en la industria legal-tech.
Los acuerdos antimonopolio de RealPage y arrendadores de EEUU no ponen fin a los riesgos de precios algorítmicos: El acuerdo propuesto por el Departamento de Justicia de EEUU con RealPage esta semana es el último de una serie de acuerdos que involucran a agencias antimonopolio, arrendadores y un ejemplo emblemático de las preocupaciones sobre el impacto de las herramientas de precios algorítmicos en la economía nacional. Mientras los términos de estos acuerdos esbozan una hoja de ruta para las empresas que navegan las promesas y trampas del software de precios basado en datos, los litigios en curso y la actividad legislativa presagian futuros riesgos y disputas legales.
OpenAI no puede anular el interdicto en la demanda de marca sobre el nombre "IO": OpenAI no puede anular un interdicto ganado por IYO Inc. que temporalmente le bloqueó de usar la marca "IO" en ciertas circunstancias relacionadas con el competidor adquirido IO Products, después de que el Noveno Circuito concluyera el miércoles que las marcas de las partes solo difieren en una letra y venden productos similares relacionados con IA.
Un juez rechaza el intento temprano de X de bloquear la ley de deepfakes de Minnesota: Un juez federal de Minnesota ha denegado la solicitud de X Corp. de un fallo favorable en su impugnación a una ley del estado de Minnesota que restringe la difusión de "deepfakes" dirigidos a influir en las elecciones, diciendo que X no había demostrado que pudiera ser perjudicada por la ley de una manera que le daría legitimación para bloquearla.
Sancionado un abogado de Los Ángeles acusado de usar "alucinaciones" de IA: Un tribunal de apelaciones del estado de California ha ordenado a un abogado acusado de incluir "alucinaciones" de inteligencia artificial en el escrito de apertura de un cliente que pague 7.500 dólares al tribunal, diciendo en una opinión publicada que el abogado está sujeto a sanciones por inexactitudes, independientemente de si fueron resultado de la IA.
Un tribunal de Carolina del Norte bloquea el lanzamiento de tecnología de IA en medio de una disputa de secretos comerciales: Un juez federal de Carolina del Norte estuvo de acuerdo con la canadiense Atlas Power Technologies Inc. en que su tecnología multimillonaria para centros de datos que utilizan inteligencia artificial estará en peligro por el lanzamiento de un producto paralelo de un miembro del consejo en las próximas semanas, concediendo la solicitud de la empresa de una orden de restricción temporal.
Un jurado de Florida falla a favor de Megan Thee Stallion por deepfake: Un jurado federal de Florida concedió el lunes 75.000 dólares en daños a Megan Thee Stallion en su juicio contra la personalidad online Milagro "Mobz World" Cooper, dictaminando que la reputación de la rapera fue dañada por acusaciones de mentir en el tribunal y después de que un video porno deepfake fuera compartido a través de internet.
Yale gana una pausa en el descubrimiento en la demanda de un estudiante por trampa con IA: Una juez federal de Connecticut ha acordado pausar el descubrimiento mientras considera la solicitud de la Universidad de Yale de desestimar una demanda presentada por un estudiante que fue acusado de usar inteligencia artificial para hacer trampaen un examen final.
PROPIEDAD INTELECTUAL/INDUSTRIAL
La postura de la USPTO sobre la autoría de IA aclara la confusión e incertidumbre persistentes: Considerando la inteligencia artificial similar a "equipos de laboratorio, software informático, bases de datos de investigación" y similares, las nuevas directrices de la Oficina de Patentes y Marcas de EEUU deberían proporcionar a los innovadores una medida de confianza de que su uso de inteligencia artificial durante el proceso inventivo no sirve como barrera para patentar.
El Tribunal Supremo pide la opinión del gobierno sobre un caso de derechos de autor de IA: El Tribunal Supremo de EEUU ha solicitado la respuesta del gobierno a una apelación de un científico informático que impugna una negativa de registrar los derechos de autor de una obra de arte hecha por un sistema de inteligencia artificial que él creó.
Nvidia enfrenta más acusaciones de scraping de YouTube para IA: Los creadores del canal de YouTube h3h3 Productions y dos creadores de contenido de golf han presentado una demanda colectiva propuesta contra el gigante de inteligencia artificial y chips informáticos Nvidia, alegando que había extraído indebidamente su contenido para entrenar el modelo de IA Cosmos.
Una editorial legal dice que una empresa de IA hizo uso indebido de su base de datos: La empresa de publicación e investigación legal Fastcase demandó a la empresa de tecnología de IA legal Alexi en un tribunal federal de D.C., alegando que incumplió una antigua relación comercial y comenzó a hacer uso indebido de sus datos legales para convertirse en un competidor directo.
Squires afirma que la IA no recibe trato especial en el proceso de patentes: La Oficina de Patentes y Marcas de EEUUreemplazó el miércoles las directrices de la administración Biden sobre el papel de la inteligencia artificial en la invención con las suyas propias, pero los abogados dicen que muy poco cambió.
9 medios de comunicación se suman a las demandas contra Microsoft y OpenAI por robo de PI: The Virginian-Pilot, Los Angeles Daily News, Hartford Courant y otros seis medios de comunicación regionales se unieron a una larga lista de autores y editores que acusan a Microsoft Corp. y OpenAI Inc. de infringir intencionadamente sus obras protegidas por derechos de autor para entrenar sus productos de texto generativo.
Los abogados de los autores solicitan 300 millones de dólares en honorarios tras el acuerdo de 1.500 millones con Anthropic: Los abogados que representaron a un grupo de autores que consiguieron un acuerdo de 1.500 millones de dólares con la empresa de inteligencia artificial Anthropic después de alegar que la empresa infringió derechos de autor al entrenar sus modelos con libros pirateados han solicitado al tribunal 300 millones de dólares en honorarios.
DATOS PERSONALES
Flock utiliza trabajadores gig en el extranjero para construir su IA de vigilancia: Una filtración accidental reveló que Flock, que tiene cámaras en miles de comunidades de EEUU, está utilizando trabajadores en Filipinas para revisar y clasificar imágenes.
El comisionado de privacidad de Nueva Zelanda pide multas más fuertes y controles sobre la toma de decisiones automatizada: Nueva Zelanda necesita multas más duras y salvaguardias más fuertes contra los riesgos derivados de la toma de decisiones automatizada, dijo el regulador de privacidad. En una declaración el lunes, el Comisionado de Privacidad de Nueva Zelanda, Michael Webster, dijo que las leyes de privacidad del país necesitan un mayor fortalecimiento a través de cinco cambios clave: introducir un régimen de sanciones civiles, añadir un "derecho de supresión", imponer salvaguardias más estrictas contra la toma de decisiones automatizada, exigir a las organizaciones que demuestren cumplimiento a través de programas de gestión de privacidad y dar al regulador de privacidad poderes y herramientas de aplicación más fuertes.
Meta AI se enfrentará a una investigación formal de la UE, anuncia Ribera: Meta Platforms se enfrentará el jueves a una investigación antimonopolio formal sobre el despliegue de sus servicios de IA, anunció la comisaria de competencia de la UE, Teresa Ribera. Meta ha recibido quejas de fabricantes de bots de IA sobre cómo se distribuyen a través de la plataforma WhatsApp. La autoridad italiana de competencia también tiene una investigación en curso sobre la aparición de Meta AI en el servicio de mensajería.

LEGALTECH
La IA obtiene buenas notas en la calificación de exámenes de facultades de derecho: Un estudio destacado por Reuters encontró que modelos de IA como ChatGPT-5 podrían calificar exámenes de facultades de derecho con alta correlación (hasta 0,93) con los calificadores humanos; los investigadores dicen que la tecnología podría proporcionar retroalimentación valiosa pero advierten que las normas éticas y profesionales restringen el reemplazo completo de la calificación humana.
NewMod Conveyd recauda 2,5 millones de libras para conveyancing respaldado por IA: Artificial Lawyer informó de que la startup Conveyd recaudó 2,5 millones de libras para acelerar la compraventa de inmuebles en el Reino Unido utilizando IA; la empresa pretende automatizar tareas administrativas que consumen mucho tiempo mientras mantiene a los humanos en el proceso, reduciendo tiempos y costes de transacción.
Law Punx: "Más Trabajo Estratégico" es un mito de la IA: En una publicación en Artificial Lawyer, el fundador de Dot, Antti Innanen, argumentó que las afirmaciones de que la IA liberará a los abogados para hacer más trabajo estratégico son engañosas; sostiene que la IA también podría realizar tareas de mayor nivel y la idea de más trabajo estratégico es un mito.
El coste oculto de la IA "gratuita": los asesores internos deben elegir sabiamente: Artificial Lawyer advirtió a los asesores internos sobre los riesgos de usar herramientas de IA gratuitas; el artículo destacó los riesgos de confidencialidad, las alucinaciones (citando el caso Mata v. Avianca) y enfatizó que la IA legal de confianza debe ofrecer autenticación de usuarios, manejo seguro de datos y validación para cumplir con las normas profesionales.
LexisNexis lanza la nueva generación de Protégé General AI: Artificial Lawyer informó de que LexisNexis lanzó una nueva versión de su Protégé General AI; el sistema ofrece respuestas unificadas a través de múltiples fuentes de contenido, un modo "Best Fit" con citas de confianza, selección flexible de fuentes y razonamiento mejorado, y permite a los abogados elegir entre diferentes modelos de lenguaje grande y fuentes de contenido con seguridad por diseño.
CMS amplía el acuerdo con Harvey con despliegue en más de 50 países: Artificial Lawyer anunció que el bufete CMS está ampliando su uso de la plataforma de IA Harvey en todas las firmas miembro, dando a más de 7.000 abogados y personal acceso; se espera que el despliegue ahorre aproximadamente 118 horas por abogado y demuestra el potencial de la IA para mejorar la productividad.
La operación Scissero-Robin AI + Entrevista con Mathias Strasser: Artificial Lawyer analizó la adquisición por parte de Scissero del brazo de servicios legales de Robin AI; aproximadamente 85 empleados de Scissero y 70 de Robin AI unirán fuerzas, y el CEO Mathias Strasser explicó que el objetivo es combinar IA avanzada con experiencia legal para crear un bufete de abogados de próxima generación.
El bufete habilitado con IA Scissero compra el brazo de servicios de Robin: Una noticia de última hora en Artificial Lawyer anunció que Scissero está adquiriendo el equipo de servicios legales de Robin AI, con aproximadamente 75 empleados trasladándose y parte de la dirección uniéndose a la nueva entidad; la historia precedió a un análisis más detallado de la operación.
Solve recauda 40 millones más, Thomson Reuters aumenta su participación: Artificial Lawyer informó de que la startup de inteligencia de patentes Solve recaudó una ronda Serie B de 40 millones de dólares, con Thomson Reuters aumentando su participación; aproximadamente el 60 por ciento de los clientes de la empresa son bufetes de abogados, y su IA genera cuadros de reclamaciones con soporte de citas, ahorrando el 60-80 por ciento del tiempo normalmente dedicado al análisis de patentes.
Harvey contrata a Ryan Samii de Hebbia para impulsar la innovación: Artificial Lawyer señaló que Harvey nombró a Ryan Samii, anteriormente de Hebbia, como Jefe de Innovación de Producto; Samii colaborará con equipos de innovación en bufetes de abogados y departamentos legales corporativos para adoptar IA y explorar la próxima frontera de la tecnología legal.
Jus Mundi + JAMS se asocian para educación en arbitraje con IA: Artificial Lawyer informó de que la plataforma de investigación Jus Mundi y el organismo de arbitraje JAMS lanzaron una colaboración para promover la educación en IApara el arbitraje, incluyendo talleres e investigación; los líderes de ambas organizaciones dijeron que la asociación democratizará el acceso a la experiencia en arbitraje.
El poder de la IA construida sobre tus datos, no sobre modelos genéricos: El autor invitado Draftwise escribió en Artificial Lawyer que la inteligencia de contratos especializada construida sobre los propios datos de un bufete ofrece una precisión mucho mayor que los modelos de lenguaje grande genéricos; el artículo advirtió que la IA genérica puede alucinar y argumentó que la inteligencia de contratos basada en datos es esencial para la fiabilidad.
Agiloft lanza solución de "Gestión de Obligaciones": Artificial Lawyer describió la nueva función de Agiloft que convierte contratos estáticos en inteligencia basada en datos utilizando "Screen Run Action" para extraer obligaciones; incluye tipos de obligaciones predefinidos (financieras, regulatorias, etc.) y funciones de gestión de tareas para el cumplimiento.
Algunos clientes ven caer el gasto en bufetes, justo cuando la IA se integra: Artificial Lawyer resumió una encuesta de CLOC/Harbor que muestra que el 26 por ciento de los equipos legales internos esperan que el gasto en bufetes disminuyamientras aumenta la adopción de IA; las plantillas internas continúan creciendo, y los acuerdos de honorarios alternativos se están volviendo más comunes.
Semaverse lanza plataforma de inteligencia de IA para M&A: Artificial Lawyer presentó la plataforma de inteligencia de M&A de Semaverse que utiliza "memoria de inteligencia" y agentes de IA para apoyar la diligencia debida y la toma de decisiones; las características incluyen inteligencia continua, contexto estratégico, alineación estructurada y un modelo operativo agéntico.
El entrevistador de IA de Mishcon: ¿El futuro del reclutamiento de abogados?: Artificial Lawyer informó de que el bufete Mishcon de Reya está probando un entrevistador de IA para filtrar a los solicitantes de empleo; el chatbot hace preguntas idénticas a cada candidato, con los responsables de la toma de decisiones humanos controlando la contratación final; la firma enfatiza que los sesgos serán monitoreados y la herramienta todavía está en fase de prueba.
Harvey lanza Shared Spaces para colaboración + recauda 160 millones extra: Artificial Lawyer anunció que Harvey introdujo Shared Spaces, una plataforma de colaboración que permite a los bufetes de abogados y clientes trabajar juntos en tareas legales impulsadas por IA; la empresa también recaudó 160 millones de dólares, valorándola en alrededor de 8.000 millones de dólares.
Curvestone AI recauda 4 millones de dólares semilla para automatización de flujos de trabajo: Artificial Lawyer informó de que Curvestone AI recaudó una ronda semilla de 4 millones de dólares para su tecnología de automatización de flujos de trabajo, que utiliza múltiples agentes de IA para realizar tareas de varios pasos mientras mitiga errores compuestos; los fundadores dijeron que la financiación apoyará la contratación y el desarrollo de productos.
¿Quieres ser un "Tecnólogo Legal Acreditado"?: Artificial Lawyer escribió sobre el plan del Law Society of Scotland de acreditar a los tecnólogos legales; el esquema reconocerá a los profesionales que demuestren experiencia en tecnología legal y tiene como objetivo fomentar la innovación y la calidad en los servicios legales habilitados por tecnología.
Avokaado busca resolver el problema de la caja negra de GenAI: Artificial Lawyer informó de que Avokaado lanzó "Avo", un motor de playbooks de IA generativa que combina modelos de lenguaje grande con playbooks basados en reglas; el sistema utiliza cuadros de mando e inteligencia multicapa para proporcionar automatización de contratos verificable, abordando el problema de la caja negra de la IA generativa.
La era de la IA general en el trabajo legal: Una pieza patrocinada por LexisNexis en Artificial Lawyer argumentó que la próxima evolución en tecnología legal se centrará en sistemas de IA que razonan sobre datos de confianza, enfatizando la transparencia, fuentes fiables y el juicio humano; el artículo enmarcó la IA general como una herramienta para aumentar a los abogados en lugar de reemplazarlos.
Jason Barnwell de Microsoft se une a Agiloft como CLO: Artificial Lawyer informó de que el experto en operaciones legales Jason Barnwell dejó Microsoft para unirse a Agiloft como director jurídico; el artículo resumió su trayectoria y declaró que guiará la estrategia legal y el desarrollo de productos de Agiloft.
NewMod Soxton recauda 2,5 millones de dólares para necesidades legales de startups: Artificial Lawyer anunció que Soxton, una plataforma dirigida a servicios legales para startups, recaudó una ronda pre-semilla de 2,5 millones de dólares; la empresa utiliza IA y experiencia humana para proporcionar servicios legales asequibles y pretende reducir los costes legales para las startups.
La empresa xAI de Elon Musk busca un "tutor legal de IA": Artificial Lawyer señaló que xAI está contratando un "tutor de IA legal y cumplimiento" para anotar datos de entrenamiento y garantizar que los modelos cumplan con los estándares legales; el artículo especuló que la contratación sugiere el creciente interés de xAI en aplicaciones legales.
NewMod Landfall lanza un bufete de patentes nativo de IA: Artificial Lawyer informó sobre el lanzamiento de Landfall IP, un bufete de patentes nativo de IA que utiliza agentes de descubrimiento y herramientas de redacción integradas bajo supervisión de abogados para manejar el trabajo de patentes de manera más eficiente.
Más allá de las respuestas: Cómo la IA agéntica está redefiniendo la práctica del derecho: Un artículo patrocinado por Thomson Reuters en Artificial Lawyer argumentó que el futuro de la tecnología legal radica en la IA "agéntica" que razona sobre datos fiables y produce resultados transparentes y auditables; el artículo enfatizó la importancia del contexto, la verificación, la integración de flujos de trabajo y la experiencia humana.
ChatGPT cumple tres años – ¿Qué ha cambiado?: Artificial Lawyer reflexionó sobre el tercer aniversario de ChatGPT, observando que aunque las herramientas de IA generativa se usan ampliamente, aún no han transformado los modelos de negocio de los bufetes de abogados; el artículo destaca la brecha entre el entusiasmo individual y el cambio estructural en los servicios legales.

OTROS
Daniela Amodei de Anthropic cree que el mercado recompensará la IA segura: La administración Trump podría pensar que la regulación está matando a la industria de la IA, pero la presidenta de Anthropic, Daniela Amodei, no está de acuerdo.
Wachtell asesora a OpenAI en la compra planificada de Neptune: OpenAI ha acordado adquirir Neptune, una startup de seguimiento de experimentos, una operación que integra internamente un conjunto de herramientas diseñadas para dar a los investigadores visibilidad en tiempo real sobre cómo aprenden los grandes modelos de inteligencia artificial.
Agentes de IA encuentran 4,6 millones de dólares en exploits de contratos inteligentes blockchain: Los modelos de IA son cada vez mejores en tareas cibernéticas. Pero, ¿cuál es el impacto económico de estas capacidades? En un proyecto reciente de MATS y Anthropic Fellows, los investigadores evaluaron la capacidad de los agentes de IA para explotar contratos inteligentes en SCONE-bench, un nuevo benchmark que construyeron con 405 contratos que fueron realmente explotados entre 2020 y 2025. En contratos explotados después del último corte de conocimiento (marzo de 2025), Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 desarrollaron exploits por valor colectivo de 4,6 millones de dólares, estableciendo un límite inferior concreto para el daño económico que estas capacidades podrían permitir.
Las asociaciones de IA proliferan en medio de un escrutinio antimonopolio laxo en EEUU: Las asociaciones comerciales entre Big Tech y actores de IA de todas las formas y tamaños ofrecen un objetivo fácil para los agentes antimonopolio federales de EEUU que han revivido una herramienta previamente descuidada para combatir la gobernanza corporativa anticompetitiva.
El Reino Unido podría verse afectado por una reversión en las acciones de IA en EEUU, advierte el BOE: El Banco de Inglaterra ha advertido nuevamente que una corrección brusca en el precio de las acciones relacionadas con la inteligencia artificial en EEUU podría afectar los préstamos y desestabilizar la estabilidad financiera.
Walmart añade nuevas directrices para agentes a su sitio web: Walmart ha añadido nuevas directrices que describen cómo los agentes de IA y los modelos de lenguaje grande deben interactuar y acceder a la información de su sitio web, convirtiéndose en la última empresa de comercio electrónico en definir claramente cómo las herramientas de IA externas pueden usar su sitio.
"Llamando a todos los multimillonarios": Los críticos de OpenAI instan a Musk y Zuckerberg a financiar un esfuerzo de referéndum: El creador de ChatGPT enfrenta al menos dos iniciativas de referéndum diferentes en California, dirigidas a su reestructuración corporativa de miles de millones de dólares.
La carrera por convencer al Papa sobre AGI: Un equipo de creyentes quiere que el Vaticano tome en serio los escenarios de fin del mundo de la IA. El Papa León XIV probablemente no es la primera persona que imaginas cuando la conversación gira hacia los escenarios de fin del mundo de la Inteligencia General Artificial. Pero el mes pasado, el investigador de AGI John-Clark Levin se encontró dentro del Vaticano en una misión para poner esas preocupaciones frente al Papa. Levin no ha estado actuando solo. En el último año, ha estado reuniendo silenciosamente una red de aproximadamente tres docenas de académicos, científicos, investigadores de políticas y sacerdotes, un grupo que medio en broma llama los "Vengadores de la IA", que se reúnen virtualmente para estrategizar cómo hacer que el Vaticano piense más seriamente sobre las posibilidades más extremas de la IA.
¡Hasta la próxima! 👯
Member discussion