El concepto de IA de código abierto y Meta
¿Meta y otros modelos de IA intentan aprovecharse de la excepción legal a modelos de código abierto? Analizamos el caso y vemos las novedades del 21 al 27 de abril 🤔
La excepción “open source” o código abierto del Reglamento Europeo de IA y el llamado open-washing de modelos de “pesos abiertos” es un riesgo real y Meta está en el disparadero por ello.
El 10 de abril de 2025 treinta eurodiputados pertenecientes a los grupos Verdes/ALE, S&D y La Izquierda remitieron una carta a la Comisión Europea alertando de una “definición demasiado laxa” de la inteligencia artificial de código abierto en el Reglamento (UE) 2024/1689 (en adelante RIA). En su nota –difundida por Euractiv bajo el titular “Club of MEPs demand strict AI Act open-source definition”– los firmantes acusaron a Meta de “aprovechar la etiqueta open source para eludir obligaciones fundamentales de transparencia y gestión de riesgos” y reclamaron orientaciones interpretativas que distingan claramente entre software libre y la mera publicación de los pesos.
1.- Código abierto, software libre y “pesos abiertos”
Bajo la Open Source Definition de la OSI (cuya última versión es de 2007) los usuarios gozan de las cuatro libertades clásicas: usar, estudiar, modificar y redistribuir sin restricciones adicionales. Sin embargo, en modelos de IA la apertura puede fragmentarse entre código, datos, arquitectura y pesos entrenados. La OSI advirtió en 2023 y 2024, frente al auge de los grandes modelos generativos, que publicar únicamente los pesos sin libertades plenas “no es código abierto” y denunció los intentos de “open-washing” o blanquear un software dando a entender que es de código abierto, citando por ejemplo a Meta con Llama 2 y 3 en su momento.
De hecho, la OSI publicó en octubre de 2024 su definición oficial de inteligencia artificial de código abierto, según la cual un modelo de IA de código abierto será el que proporcione:
- Acceso a detalles sobre los datos utilizados para entrenar la IA para que otros puedan comprenderla y recrearla.
- El código completo utilizado para construir y ejecutar la IA.
- Las configuraciones y pesos del entrenamiento, que ayudan a la IA a producir sus resultados.
Meta no hace eso, y por ello discrepó seriamente con OSI sobre la definición.
2.- La excepción del artículo 2.12 del Reglamento de IA
El artículo 2, apartado 12 de RIA excluye de su ámbito de aplicación “los sistemas de IA puestos a disposición con licencia libre y de código abierto, salvo que se comercialicen como sistemas de alto riesgo o incurran en prácticas prohibidas”. La finalidad es fomentar la investigación abierta y evitar que la carga regulatoria asfixie a proyectos comunitarios. No obstante, la norma remite a la noción de “licencia libre y de código abierto” sin referencia expresa a la OSI u otra similar, generando un potencial incentivo regulatorio: si un proveedor logra que su licencia sea percibida como código abierto, podría librarse de buena parte de los requisitos legales de documentación, gestión del ciclo de vida y evaluación de conformidad que pesan sobre los modelos de propósito general.
Y eso es lo que los 30 eurodiputados denuncian respecto a Meta.
Sea como sea, los considerandos 102 a 104 (también el 88) de RIA sí dan algunas pautas de lo que podría entenderse por un modelo de código abierto. Volveremos sobre ello.
3.- Llama, sus “pesos abiertos” y su licencia restrictiva
Meta distribuye Llama (en su versión más actual, la número 4) con una licencia propia que:
i) prohíbe usar el modelo para competir con los servicios de Meta cuando el usuario supere un determinado umbral de usuarios mensuales;
ii) obliga a aceptar su política de usos aceptables y
iii) no libera los datos de entrenamiento ni el código de pre-training.
Meta sí licencia abiertamente sus pesos o los parámetros numéricos de un modelo, es decir, los elementos que determinan el nivel de influencia que determinado dato (input) tendrá sobre un resultado (output).
Sin embargo, organizaciones como la OSI concluyen que la licencia “no supera el estándar de apertura” y se trata de un caso paradigmático de “open-washing“. A ello se suma que la estrategia de comunicación de Meta ha insistido desde el inicio en calificar los modelos como de código abierto, y por eso se entiende que es el modelo de ese tipo con más usuarios a nivel mundial. Pero entonces, como dicen los eurodiputados, existe el riesgo de que pudiera encajar formalmente en la literalidad del art. 2.12 si no se clarifica qué significa “licencia abierta” en IA.
En todo caso, no es Llama el único modelo de IA que se auto califica como de código abierto cuando en realidad no es el caso. Siguiendo las pautas de la OSI:
- Falcon 180B dice ser de código abierto pero por ejemplo limita el alojamiento en determinados servicios.
- Stable Difusion también pone limitaciones de uso aceptable o posibles desactivaciones.
- DeepSeek R1 sí podría estar cerca de encajar en el concepto al recurrir a la licencia MIT. En todo caso, parece que podría no cumplir con la definición de la OSI de octubre 2024 al no publicar en el repositorio los scripts. Los modelos V2 y V3 parecen imponer numerosas restricciones en usos y posibles prohibiciones, así que no cumplirían.
Quizá Mistral7B (modelo europeo) es el que mejor cumple los criterios, aplicando una licencia Apache 2.0 pura y dura.
Sea como sea, el riesgo para el legislador europeo es que, sin criterios técnicos objetivos, modelos con restricciones materiales queden indebidamente exentos.
4.- Consecuencias jurídicas de la confusión
¿Qué ocurriría si un modelo de IA de solo pesos abiertos fuera entendido como de código abierto y se pudiera acoger a la excepción del art. 2.12 RIA?
Potenciales problemas serían:
- Transparencia menguante: los proveedores evitarían publicar información sobre datos de entrenamiento, evaluación de seguridad o impacto, amparándose en la exención.
- Competencia desleal: quien abra parcialmente los pesos pero mantenga ventajas opacas (p. ej. la llamada “data advantage”) obtendría el sello open source sin los costes asociados.
- Seguridad y derechos fundamentales: la excepción exime a estos modelos de la obligación de registro en la base europea y de la evaluación de conformidad, lo que puede dificultar la trazabilidad de usos ilícitos.
- Incertidumbre contractual: las empresas usuarias que integren modelos supuestamente libres podrían descubrir, demasiado tarde, que existen limitaciones de explotación incompatibles con su negocio.
Sea como sea, ¿qué es “libre y de código abierto” a efectos del Reglamento sobre IA?
Aunque el Reglamento se remite en el art. 2.12 a la expresión “licencias libres y de código abierto” –muy cercana al Free/Libre and Open Source Software (FLOSS)–, la falta de remisión normativa a la OSI, al proyecto Debian u otras definiciones asentadas en la práctica genera posibles lagunas.
Cabrían dos vías interpretativas:
- Interpretación conforme al acervo europeo en propiedad intelectual: por ejemplo, exigir la sujeción a una licencia aprobada por la OSI o equivalente, como ocurre en el ámbito de la contratación pública.
- Interpretación funcional: valorar caso por caso si la licencia garantiza las cuatro libertades. Esta opción, defendida por algunos Estados miembros, cargaría a la futura AI Office con una función cuasi-certificadora.
Los eurodiputados de la noticia se inclinan por la primera opción para evitar que la AI Office sea capturada por operadores privados que “diseñen” licencias a medida de la excepción.
5.- Posible clarificación regulatoria
Como decíamos antes, los Considerandos 102 a 104 de RIA dan más pistas de lo que debería entenderse por un modelo de IA de código abierto:
- El 102 dice que la licencia debe permitir que el software, los datos y los modelos se compartan abiertamente y que los usuarios puedan acceder a ellos, o a versiones modificadas de dicho software y dichos datos, o utilizarlos, modificarlos y redistribuirlos libremente.
- El 102 también dice que el modelo de código abierto debe garantizar “altos niveles de transparencia y apertura” si sus datos se ponen a disposición del público.
- El 102 señala que la licencia debe considerarse libre y de código abierto cuando permita a los usuarios ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software y los datos, incluidos los modelos a condición de que se cite al proveedor original del modelo, si se respetan unas condiciones de distribución idénticas o comparables. El art. 53.2 también ayuda en este sentido.
- El 103 comenta que se entenderán por componentes de IA libres “el software y los datos, incluidos los modelos y los modelos de IA de uso general, las herramientas, los servicios y los procesos de un sistema de IA”.
- Según el 103, usar un repositorio abierto es una posibilidad de distribución, pero no una obligación ya que puede ser otro canal.
- De acuerdo al 103, tan pronto haya monetización del modelo, incluso vía apoyo técnico o por el intercambio de datos personales no estrictamente necesarios, no podría acogerse a la excepción. Además, la disponibilidad de un componente de IA a través de repositorios abiertos no debe constituir, de por sí, una monetización.
- Para el 104, si estos modelos presentan un riesgo sistémico, la licencia y su transparencia no es razón suficiente para que quede exento del cumplimiento de RIA. Pero incluso sin riesgo sistémico, habrá que presentar un resumen del contenido utilizado para el entrenamiento del modelo, entre otras particularidades en materia de derechos de autor.
A todo ello, hay que sumar la guía de la CE sobre usos prohibidos, aunque no aporta mucho detalle más allá de una mención en la página 11.
En resumen, si bien es cierto que no tenemos una definición concreta de modelo de IA de código abierto en el reglamento, da la sensación que se podría contornear bastante bien algo parecido a una definición.
6.- Lecciones para la práctica empresarial
Una empresa que quiera usar modelos de IA de código abierto, ya estén más o menos condicionados, sería bueno que tuviera en cuenta las siguientes cuestiones:
- Due diligence: las empresas que integren modelos “abiertos” deben auditar la licencia línea por línea; no basta con que los pesos sean descargables.
- Gobernanza de IP: los acuerdos de upstream y downstream deben prever la eventual reclasificación de un modelo como “no abierto” y las consecuencias sobre regalías y responsabilidad.
- Cláusulas de rescisión: conviene pactar cláusulas resolutorias si una futura decisión de la AI Office declara que el modelo no cumplía el art. 2.12.
- Estrategia de litigar o cumple: las start-ups europeas que liberen realmente sus modelos pueden invocar la excepción para competir en transparencia y diferenciación ética frente a gigantes que practican el open-washing.
En resumen, la exención del art. 2.12 encarna la apuesta europea por un ecosistema de IA abierto y auditable, pero su redacción actual corre el riesgo de convertirse en caballo de Troya de modelos “semicerrados” que, como Llama, DeepSeek y otros, publican pesos pero mantienen sombras sobre otros elementos como datos y usos.
La denuncia de los 30 eurodiputados subraya la urgencia de fijar, cuanto antes, un baremo jurídico-técnico que preserve el sentido histórico del código abierto y evite que la excepción se convierta en un atajo regulatorio para los actores con mayor poder de mercado.
De lo contrario, la innovación abierta que el legislador quiso proteger podría quedar diluida en un paisaje dominado por licencias a medida y obligaciones de transparencia cada vez más difusas.
Dicho esto, vamos con la recopilación de la semana del 21 a 27 de abril. 😄
107 noticias 😬
Como llego tarde, esta semana es en abierto. ❗️
El siguiente número, la actualidad será bajo suscripción de nuevo.

REGULACIÓN
EUROPACómo el gobierno de EE.UU. quiere reescribir el código de prácticas de la UE para modelos de IA: La administración estadounidense ha enviado una carta oficial a la Comisión Europea, pidiendo pausar la implementación de la Ley de IA — o al menos abordar las deficiencias en el código de prácticas de la UE para modelos de IA — según un comentario detallado, visto por MLex. Los comentarios piden que se modifique el código proporcionando más flexibilidad, reduciendo la prescriptividad, alineándolo mejor con la Ley de IA, fortaleciendo las protecciones de secretos comerciales y aclarando su relación con la ley de derechos de autor de la UE.
Los proveedores de IA generativa ven los primeros pasos para el código de prácticas de la UE sobre etiquetas de contenido: Los proveedores de IA generativa están viendo que la Comisión Europea comienza a sentar las bases para un nuevo código de prácticas que ayude a desarrolladores y usuarios a cumplir con los requisitos de transparencia de la Ley de IA de la UE. Se espera que este enfoque refleje el utilizado para los modelos de IA de propósito general; sin embargo, los detalles sobre su calendario y proceso siguen sin definirse y probablemente estarán influenciados por el resultado del código para proveedores de modelos. Aunque quedan varias cuestiones técnicas, el ejecutivo de la UE ya ha encargado al menos un estudio para explorar soluciones técnicas de vanguardia para marcar el audio generado por IA.
El Consejo propone almacenar datos sensibles y sistemas de IA de alto riesgo en nubes de la UE: Los países de la UE siguen divididos sobre la definición de una "nube soberana" y aún no han llegado a un acuerdo sobre la Certificación Europea de Ciberseguridad en la Nube (EUCS).
La ley de derechos de autor de la UE se enfrenta a limitaciones con los modelos de IA, dice el Parlamento: La legislación de derechos de autor de la UE tiene limitaciones legales en la forma en que trata los materiales protegidos por derechos de autor que se utilizan para entrenar modelos de IA de propósito general, según un informe publicado por el servicio de investigación del Parlamento Europeo. El informe señala incertidumbre legal en relación con la excepción de minería de texto y datos de la Directiva de Derechos de Autor, sugiriendo que una revisión de la directiva "podría abordar las limitaciones e incertidumbres identificadas en el entrenamiento de GPAI utilizando obras protegidas por derechos de autor."
ChatGPT podría ser designado como plataforma sistémica bajo la ley digital de la UE: El chatbot emblemático de OpenAI, ChatGPT, está siendo considerado por la Comisión Europea para su designación como plataforma sistémica bajo la Ley de Servicios Digitales (DSA) de la UE debido a su funcionalidad de búsqueda web, según ha sabido MLex. OpenAI informó de un aumento de 11,2 millones de usuarios activos mensuales en la UE en octubre a 41,3 millones en marzo, acercándose al umbral de 45 millones para dicha clasificación. Esta designación impondría estrictos requisitos regulatorios y el pago de una tasa de supervisión. Quedan dudas sobre si la designación afectaría únicamente a la función de búsqueda o a todo el chatbot.
El gobierno de EE.UU. critica fuertemente el código de prácticas de la UE para modelos de IA: La misión de EE.UU. ante la UE envió una carta a la Comisión Europea y varios gobiernos europeos quejándose del último borrador del código de prácticas para proveedores de modelos de IA de propósito general como OpenAI y Anthropic, según MLex. La carta dice que el código no debería adoptarse en su forma actual y marca otro paso en la confrontación de la administración Trump con el enfoque regulatorio de la UE.
La Comisión permitió a las empresas tecnológicas diluir texto clave de la Ley de IA, según denuncian ONG: Las alegaciones llegan en un momento crítico en el desarrollo del reglamento de IA de la UE. Importantes empresas tecnológicas han conseguido acceso privilegiado para influir en un documento de implementación clave de la Ley de IA que se está redactando actualmente, según han alegado Corporate Europe Observatory y Lobby Control. El Código de Práctica de IA de Propósito General de la UE establecerá un estándar global para sistemas de IA como ChatGPT, y se encuentra en una fase crítica de redacción, con la última versión incorporando varias enmiendas favorables a la industria.
Los proveedores de modelos de IA reciben la llamada de la UE para aportar información sobre las próximas directrices: La Comisión Europea abrió una consulta pública para recopilar aportaciones de empresas de IA, actores intermedios, sociedad civil, autoridades públicas y academia para informar sus próximas directrices sobre las reglas de la Ley de IA para modelos de IA de propósito general. Las directrices tienen como objetivo aclarar conceptos clave, como qué es un modelo GPAI, cuándo se considera colocado en el mercado de la UE, y cómo la adherencia a un código de práctica reducirá la carga de cumplimiento. La fecha límite para comentarios es el 22 de mayo.
Auditoría del sector Edtech y proyecto de ley de datos está retrasando la claridad sobre IA para escuelas del Reino Unido: Las escuelas que esperan más orientación sobre la implementación de inteligencia artificial con fines educativos están esperando a que el regulador de datos complete una auditoría y a que el Parlamento apruebe el proyecto de ley de reforma de datos, dijo un funcionario del Departamento de Educación. Los legisladores esperan añadir disposiciones para salvaguardar los datos de los niños cuando se utiliza IA en entornos educativos mediante enmiendas al proyecto de ley de datos.
Futuro digital más seguro con iniciativas de IA, foco del informe del supervisor de datos de la UE: Un enfoque en la configuración de un futuro digital más seguro a través del establecimiento de una Unidad de Inteligencia Artificial y el lanzamiento de una Estrategia de IA integral es parte del enfoque del Informe Anual 2024 del Supervisor Europeo de Protección de Datos. El informe también destaca la emisión de 97 consultas legislativas, reflejando el papel del SEPD en el asesoramiento sobre aspectos de protección de datos en varios sectores, así como la transparencia y el acceso a documentos.
Francia se mueve para dar forma a los estándares de sostenibilidad de IA de la UE: El organismo nacional de normalización de Francia ha propuesto iniciar el trabajo en directrices y métricas diseñadas para anticipar estándares técnicos que aborden el impacto ambiental de la inteligencia artificial bajo la Ley de IA de la UE a finales de este año. La propuesta consiste en desarrollar directrices y métricas basadas en las mejores prácticas en la evaluación del ciclo de vida, y se centra en el uso de energía, emisiones y consumo de recursos, así como en la definición de responsabilidades de informes para desarrolladores y usuarios de IA a lo largo del ciclo de vida del sistema. La propuesta será discutida en mayo, pero podría enfrentar oposición debido a los retrasos actuales en el desarrollo de estándares de IA.
El ejecutivo de la UE dice que podría tomar medidas contra aplicaciones que usan la IA DeepSeek de China: La Comisión afirma que los modelos de DeepSeek están "en conflicto con los principios de la UE" de libertad de expresión.
El gobierno del Reino Unido comienza la selección para las Zonas de Crecimiento de IA: El proceso formal de selección comienza hoy en el Reino Unido para determinar las Zonas de Crecimiento de IA que recibirán regulaciones de planificación favorables como parte de los intentos de impulsar negocios relacionados con la IA. Más de 200 áreas y empresas han expresado un interés inicial en el programa. Se espera una inversión de miles de millones de libras en asociaciones público-privadas. Los resultados finales se esperan para este verano, con una zona — Culham, cerca de la ciudad de Oxford — que ha sido designada como piloto.
La Ley de IA de la UE no ha tenido un 'efecto Bruselas', dice el jefe de privacidad de eBay: La Ley de IA de la Unión Europea no ha demostrado ser otro ejemplo del "efecto Bruselas", en el que una regulación de la UE se convierte en el estándar global, por lo que las empresas tecnológicas globales deben adaptar sus planes de cumplimiento de inteligencia artificial por país y región, dijo hoy el director de privacidad de eBay.
La legislación de IA del Reino Unido se centrará en niveles de inteligencia que aún no existen, señala el ministro: La próxima legislación del Reino Unido sobre IA se centrará en la inteligencia artificial general y la superinteligencia y excluirá cualquier área ya cubierta por los reguladores existentes, dijo el ministro de ciencia Patrick Vallance a los legisladores. Sus comentarios sugieren que el proyecto de ley se mantendrá reservado para tecnologías de IA más avanzadas de lo que se esperaba anteriormente. Los reguladores se reunirán para trabajar en IA con más frecuencia, añadió Vallance, mientras que una consulta sobre legislación de IA sigue en camino para más adelante este año.
Las enmiendas de los legisladores establecen el siguiente paso en la batalla por los derechos de autor de IA en el Reino Unido: La batalla sobre el futuro del régimen de derechos de autor de IA del Reino Unido está por continuar mientras los legisladores en la cámara ejecutiva intentan restablecer las protecciones en torno a los rastreadores web y la transparencia en el entrenamiento de modelos de IA, que se agregaron al proyecto de ley de reforma de datos en la cámara alta pero fueron eliminados por el ejecutivo. Un legislador también está buscando un nuevo intento de ofrecer protecciones similares desde un enfoque de transparencia de datos, y otra enmienda reabre el argumento sobre la IA en la educación.
Los servicios financieros del Reino Unido recibirán un impulso de confianza en IA con 'pruebas en vivo' regulatorias: Se está ofreciendo ayuda a las empresas de servicios financieros por parte del regulador financiero del Reino Unido para convertir sus pruebas de concepto del uso de funciones de IA generativa en productos implementados con una nueva instalación de pruebas en vivo que entrará en funcionamiento en septiembre. Se espera que la instalación aumente la confianza de las empresas que se muestran dudosas en implementar productos de IA orientados al consumidor y proporcione a la Autoridad de Conducta Financiera información sobre lo que las empresas esperan hacer con los modelos de IA generativa.
EEUULas preocupaciones sobre versiones 'americanizadas' de la ley de IA de la UE son exageradas, dice Caroli de la UE: Las preocupaciones de que los estados de EE.UU. están introduciendo versiones americanizadas de la Ley de IA de la UE son exageradas, dijo Laura Caroli, investigadora senior del Centro de Estudios Estratégicos e Internacionales y ex asesora política en el Parlamento Europeo. Hay similitudes entre la Ley de IA de la UE y varios proyectos de ley de IA introducidos en varios estados este año, como Virginia y Connecticut, dijo Caroli. Pero las similitudes son superficiales, dijo. "Mucha gente aquí, especialmente los republicanos, estaban diciendo, 'oh Dios mío, estamos importando la Ley de IA de la UE a América'", dijo. "No, realmente no es el caso."
Proyecto de ley sobre deepfakes íntimos aprobado por la Cámara de Representantes de EE.UU.: La legislación federal que obligaría a las plataformas tecnológicas a eliminar deepfakes íntimos no consensuados fue aprobada fácilmente por la Cámara de Representantes de EE.UU., y ahora se dirige al presidente Donald Trump, quien se espera que la convierta en ley.
Funcionarios de Trump planean cambios en la norma de exportación de chips de IA de Biden: Las fuentes advirtieron que los planes podrían cambiar. Si se promulgan, los cambios podrían abrir la puerta al uso de chips estadounidenses como una herramienta de negociación aún más poderosa en las conversaciones comerciales.
Trump emite orden para promover la educación en tecnología de IA para estudiantes jóvenes: El presidente de EE.UU., Donald Trump, emitió una orden ejecutiva destinada a enseñar a los estudiantes jóvenes las habilidades y la comprensión necesarias para usar y crear la próxima generación de tecnología de inteligencia artificial. "El aprendizaje temprano y la exposición a conceptos de IA no solo desmitifica esta poderosa tecnología, sino que también despierta la curiosidad y la creatividad, preparando a los estudiantes para convertirse en participantes activos y responsables en la fuerza laboral del futuro y nutriendo a la próxima generación de innovadores estadounidenses de IA para impulsar a nuestra Nación a nuevas alturas de logros científicos y económicos", dijo la orden.
La Casa Blanca de EE.UU. recibió más de 10,000 comentarios sobre el Plan de Acción de IA: La Oficina de Política de Ciencia y Tecnología de la Casa Blanca de EE.UU. publicó más de 10,000 comentarios públicos presentados sobre el desarrollo del Plan de Acción de IA.
La FTC Holyoak quiere un espacio regulatorio 'predecible' para la IA: La Comisión Federal de Comercio no dejará de vigilar el fraude y el engaño potenciados por la inteligencia artificial, pero se necesita flexibilidad para evitar "acciones de aplicación equivocadas o regulación excesiva" que podrían sofocar la innovación y la competencia en el campo emergente, dijo la Comisionada Melissa Holyoak.
EPIC respalda la ley de contenido electoral deepfake de California en la corte federal: El Centro de Información sobre Privacidad Electrónica dijo a un juez federal de EE.UU. que la ley de campaña electoral de "deepfake" de California tiene numerosas aplicaciones que se asemejan fuertemente, si no reflejan directamente, otras prohibiciones permisibles sobre discurso intencionalmente falso y dañino, apoyando un juicio a favor de la ley. Además, dijo que con respecto a las aplicaciones que no son análogas a las prohibiciones existentes sobre el discurso falso, el contradiscurso no siempre es un remedio suficiente.
Informe de la GAO examina los efectos ambientales y humanos de la IA Gen: Las promesas de la IA generativa de impulsar la productividad y transformar industrias podrían beneficiar a las personas, pero también conlleva riesgos de daño social, y sus efectos en el medio ambiente siguen sin estar claros, dijo la Oficina de Responsabilidad del Gobierno de EE.UU. en un informe publicado hace unos días.
La legislación dirigida a la fijación algorítmica de alquileres prolifera en EE.UU.: Varios estados de EE.UU. están comenzando a avanzar proyectos de ley para impedir que los propietarios fijen alquileres basados en recomendaciones algorítmicas, una práctica que los críticos dicen está exacerbando la crisis de vivienda del país. La legislación es parte de un ataque de dos frentes a la práctica que también se está desarrollando en los tribunales.
Se espera pronto una versión modificada de la Ley de IA de Colorado, dice defensor de derechos digitales: Se espera que pronto se presente una versión modificada de la Ley de Inteligencia Artificial de Colorado con cambios significativos que beneficiarán a las empresas, dijo un defensor de derechos digitales. La próxima versión modificada de la ley de IA de Colorado probablemente incluirá varias enmiendas favorables a las empresas, como una excepción ampliada para pequeñas empresas, dijo Matthew Scherer, consejero senior de política del Centro para la Democracia y la Tecnología. "Sospecho que va a debilitar significativamente la ley que entró en vigor el año pasado", dijo.
Oficina del Fiscal General de California envió cartas de advertencia a empresas de IA, dice Bonta: El Fiscal General de California, Rob Bonta, dijo hoy que su oficina envió cartas a empresas de inteligencia artificial asesorándolas sobre cómo las leyes actuales se aplican a sus prácticas comerciales.
El Senado de Texas aprueba proyecto de ley que otorga derechos de propiedad en imágenes de IA: Un proyecto de ley que bloquearía el uso de la voz o imagen de un individuo en inteligencia artificial sin su consentimiento ha pasado por el Senado de Texas, avanzando ahora a la Cámara de Representantes del estado.
El Senado de Colorado aprueba proyecto de ley sobre deepfakes íntimos con derecho de acción privada: El Senado de Colorado ha aprobado una legislación para proteger a las víctimas de deepfakes íntimos, o material generado por inteligencia artificial explícitamente sexual, especialmente aquellos que involucran a niños. SB25-288 crearía un derecho de acción privada y permitiría a una víctima representada en una imagen digital sexualmente explícita, o deepfake, que haya sufrido daños por la imagen, demandar a un individuo que divulgó la imagen. El proyecto de ley ahora pasa a la Cámara para su consideración.
Senadores de EE.UU. Blackburn y Blumenthal cuestionan a Zuckerberg sobre chatbots de IA: Los senadores estadounidenses Marsha Blackburn y Richard Blumenthal preguntaron al CEO de Meta, Mark Zuckerberg, sobre informes de que los chatbots de IA están participando en contenido romántico con menores. "La decisión de su empresa de flexibilizar las directrices de contenido para permitir el 'juego de rol romántico', incluso para bots generados por usuarios que representan a menores, es profundamente preocupante. Este patrón de comportamiento subraya una tendencia inquietante: Meta elige constantemente las métricas de crecimiento y compromiso por encima de la protección de sus usuarios más vulnerables", escribieron en una carta a Zuckerberg.
Ley de Colorado es una 'llamada de atención' para desarrolladores y implementadores de IA, dicen abogados: La Ley de Inteligencia Artificial de Colorado, una ley que se inspira en la Ley de IA de la UE, "debería ser una llamada de atención" para desarrolladores e implementadores de sistemas de IA porque podría desencadenar que otros estados aprueben leyes similares, incluso cuando es muy probable que cualquier afirmación espuria de "lavado de IA" hecha a los consumidores sobre las capacidades de un sistema de IA atraiga un escrutinio minucioso por parte de la Comisión Federal de Comercio de EE.UU. y los reguladores estatales, dijeron miembros del grupo de trabajo de ley de IA de la ABA hoy en la conferencia RSAC en San Francisco.
ASIAChina niega solicitudes de recopilación y almacenamiento de datos en medio de acusaciones de Corea del Sur sobre DeepSeek: China nunca ha — y nunca — requerirá a empresas o individuos recopilar o almacenar datos ilegalmente para el gobierno, dijo el portavoz del Ministerio de Relaciones Exteriores, Guo Jiaku, en respuesta a la afirmación de Corea del Sur de que la inteligencia artificial china DeepSeek transfirió datos de usuarios al extranjero sin consentimiento, en una conferencia de prensa. Guo enfatizó que China está comprometida con la protección de la privacidad de datos y garantizar la seguridad de acuerdo con la ley. También reiteró la oposición de Beijing a las interpretaciones amplias de la seguridad nacional y la politización de cuestiones económicas, comerciales y tecnológicas, prometiendo defender los intereses legítimos de sus empresas.
Hong Kong examina prácticas de datos a medida que la IA gana impulso: El regulador de privacidad de Hong Kong está lanzando una revisión amplia de las prácticas de datos en inteligencia artificial, marcando un mayor escrutinio regulatorio mientras la ciudad se alinea con el enfoque intensificado de Beijing en la tecnología. La Comisionada de Privacidad para Datos Personales, Ada Chung, también destacó el potencial para facilitar los flujos de datos transfronterizos, señalando que los datos son fundamentales para las ambiciones de IA de China.
El regulador de Internet de China lanza una campaña de tres meses contra el abuso de IA: El regulador de Internet de China anunció una campaña nacional de tres meses para combatir los abusos de la tecnología de inteligencia artificial. Realizada en dos etapas, la autoridad se centrará primero en fortalecer la gobernanza en la fuente de la tecnología de IA, limpiando aplicaciones de IA no conformes y endureciendo la supervisión de las tecnologías sintéticas generadas y el etiquetado de contenido. La campaña luego se dirigirá al uso de IA para producir y difundir rumores, información falsa y contenido pornográfico, así como problemas relacionados con la suplantación de identidad y el astroturfing coordinado en línea. Las autoridades planean purgar información ilegal o dañina y actuar contra cuentas y plataformas de sitios web no conformes.
Se necesita urgentemente una revisión de la política de IA, dice ONG de Corea del Sur antes de las elecciones: Una organización surcoreana sin fines de lucro que comprende expertos en ciencia y tecnología emitió propuestas de políticas para su adopción por el próximo gobierno para ayudar al país a mantenerse competitivo en la carrera global por la supremacía en inteligencia artificial. La Coalición de Ciudadanos para la Sociedad Científica presentó propuestas en cinco categorías: infraestructura, talento, ecosistema, gobernanza y global. Después de determinar que las medidas políticas en los últimos años fueron insuficientes o ineficientes, el CCSS propuso una revisión de las políticas de IA. Recomendó aumentar drásticamente los planes de inversión para construir capacidades informáticas nacionales, establecer institutos nacionales para educar a expertos en IA y fortalecer las agencias gubernamentales que supervisan las políticas de IA. Las propuestas se emitieron aproximadamente un mes antes de que el nuevo gobierno de Corea del Sur esté programado para ser inaugurado después de las elecciones del 3 de junio.
Corea del Sur ayudará a la rápida entrada al mercado de dispositivos médicos habilitados con IA: El gobierno de Corea del Sur anunció revisiones planificadas al proceso de aprobación de dispositivos médicos para facilitar la rápida entrada al mercado de aquellos que utilizan inteligencia artificial, o IA, y otras tecnologías avanzadas, al tiempo que garantiza la seguridad del consumidor. La regulación revisada tiene como objetivo ayudar a los nuevos desarrolladores de dispositivos a entrar al mercado más rápidamente obteniendo aprobaciones a través de ensayos clínicos fortalecidos. También mejora los requisitos de ciberseguridad y añade nuevos tipos de dispositivos médicos a la categoría para evaluación rápida, según el Ministerio de Seguridad de Alimentos y Medicamentos. El ministerio aceptará opiniones públicas hasta el 20 de mayo.
Corea del Sur toma más medidas para impulsar el uso de IA en el sector de distribución: El ministerio de industria de Corea del Sur anunció el establecimiento de una alianza liderada en gran parte por el sector privado entre empresas de distribución, desarrolladores de inteligencia artificial y empresas financieras para mejorar la adopción de IA en el sector de distribución. La alianza se formó como parte de las medidas políticas anunciadas a finales de 2024, que están diseñadas para ayudar a aumentar las tasas de adopción de IA en el sector de distribución local al 30 por ciento en tres años desde menos del 3 por ciento en la actualidad, según el Ministerio de Comercio, Industria y Energía. Dijo que alrededor de 40 empresas e instituciones están participando en la alianza, que comprende tres divisiones que supervisan el desarrollo tecnológico, el apoyo a las startups y la promoción de la utilización de datos.
Las solicitudes de eliminación de videos de delitos sexuales con deepfake se disparan a medida que la IA se extiende, dice Corea del Sur: El regulador de contenido mediático de Corea del Sur dijo que las solicitudes de eliminación de videos sospechosos de delitos sexuales con deepfake presentadas durante el primer trimestre de este año aumentaron un 167 por ciento respecto al año anterior, reflejando los crecientes efectos negativos del rápido avance de la inteligencia artificial y otras tecnologías digitales. La Comisión de Estándares de Comunicaciones de Corea también advirtió que la tendencia creciente del uso malicioso de la tecnología de IA podría continuar a medida que el acceso a las herramientas sigue expandiéndose y el costo de usarlas disminuye.
China aprovechará la IA y la tecnología emergente para fortalecer las defensas de ciberseguridad: Ante la evolución de las amenazas de ciberseguridad impulsadas por los avances tecnológicos, China también aprovechará las nuevas tecnologías como la inteligencia artificial para fortalecer sus defensas, dijo un alto funcionario de Internet chino. Hablando en un foro en Wuhan, Wang Jingtao, subdirector de la Administración del Ciberespacio de China, señaló que si bien persisten las amenazas convencionales a la infraestructura crítica, los avances en drones, conducción autónoma, inteligencia incorporada e Internet satelital han introducido nuevos desafíos de ciberseguridad.
La soberanía en IA es imperativa para la seguridad nacional, dice el CEO de Naver Cloud: Asegurar la soberanía en inteligencia artificial no es una opción sino un imperativo para la seguridad nacional de Corea del Sur, como lo subraya la intensificación de la rivalidad entre EE.UU. y China por la supremacía tecnológica, dijo el jefe del negocio en la nube de Naver Corp. El CEO de Naver Cloud también dijo durante una conferencia de prensa que Corea del Sur es el único país con la capacidad general para implementar IA soberana, fuera de EE.UU. y China.
China insta al diálogo para alcanzar consenso sobre aplicaciones militares de IA: China está llamando al diálogo y la cooperación entre naciones para alcanzar un consenso sobre la regulación de las aplicaciones militares de inteligencia artificial, según un documento de posición que envió al Secretario General de la ONU. El documento, que también pide un mecanismo de gobernanza de seguridad abierto y efectivo, fue presentado en respuesta a la Resolución 79/239 de la Asamblea General de la ONU sobre aplicaciones militares de IA, según la Misión Permanente de China ante Viena.
Alejarse de los materiales creados por IA, advierte Corea del Sur a los votantes antes de las elecciones: La Comisión Nacional Electoral de Corea del Sur ha emitido una declaración llamando a los votantes a ejercer precaución adicional al manejar materiales generados por IA y a aumentar la conciencia pública sobre las reglas que rigen estos materiales, al tiempo que señala un fuerte aumento en el acceso a herramientas de IA en el país altamente tecnológico. La advertencia llega antes de una elección presidencial anticipada programada para el 3 de junio. La comisión citó un aumento en las imágenes inspiradas en Ghibli como evidencia de lo fácilmente que cualquiera puede ahora crear materiales virtuales utilizando tecnología de IA.
Oficial cibernético chino dice que las aplicaciones de IA deberían servir al bien público: Las aplicaciones de inteligencia artificial deberían defender principios éticos, priorizar la responsabilidad social y proteger contra el mal uso de la IA, asegurando que la tecnología sirva al bien mayor, dijo un alto funcionario de Internet chino. Dirigiéndose a un foro en Wuhan, Yu Yonghe, director general de la Oficina de Tecnología de Gestión de Redes de la Administración del Ciberespacio de China, enfatizó la importancia crítica de la seguridad de las aplicaciones para la tecnología de IA.
China revelará directrices preliminares para proveedores de IA generativa para proteger a menores: China está a punto de introducir nuevas directrices preliminares destinadas a proteger a los menores en el ámbito de los servicios de inteligencia artificial generativa, dijo un académico chino involucrado en la redacción. Hablando en un foro en Wuhan, Liu Xiaochun, el director del Centro de Investigación de Derecho de Internet de la Universidad de la Academia China de Ciencias Sociales, dijo que las directrices preliminares refinarán la cláusula relacionada con menores en las medidas provisionales para la administración de servicios de IA generativa.

TRIBUNALES
Circ. Fed. respalda a Fox en el primer caso Alice sobre aprendizaje automático: El Circuito Federal dictaminó que aplicar métodos establecidos de aprendizaje automático a una nueva área no puede ser patentado, profundizando por primera vez en los problemas de elegibilidad de patentes concernientes a la tecnología emergente en una decisión que confirma una victoria para Fox Corp. sobre patentes de programación de TV.
Demanda contra Meta supone la primera gran prueba en la batalla por los derechos de autor en IA: Meta se enfrentará a un grupo de autores estadounidenses en los tribunales en una de las primeras grandes pruebas legales sobre si las empresas tecnológicas pueden utilizar material con derechos de autor para entrenar sus potentes modelos de inteligencia artificial. El caso, que ha sido presentado por una docena de autores, incluidos Ta-Nehisi Coates y Richard Kadrey, se centra en el uso por parte del gigante de las redes sociales de 1,4 billones de dólares de LibGen, una denominada biblioteca en la sombra de millones de libros, artículos académicos y cómics, para entrenar sus modelos de IA Llama.
Apple engañó a la gente para que comprara iPhone 16 sin IA, dice una demanda: Apple ha sido golpeada con una demanda que la acusa de engañar y cambiar a los compradores del iPhone 16 con promesas de que el modelo incluiría el nuevo modelo de inteligencia artificial de la gigante tecnológica, pero luego eliminando silenciosamente esos anuncios cuando sufrió retrasos.
El uso de libros pirateados por Anthropic socava la defensa de uso justo, dicen autores a juez de EE.UU.: Anthropic obtuvo libros pirateados ilegalmente para entrenar su modelo de lenguaje fundacional, Claude, lo que socava la defensa de uso justo de la empresa de IA contra las acusaciones de infracción de derechos de autor, dijeron autores estadounidenses a un juez federal en California. "Ningún tribunal ha sostenido jamás que descargar materiales pirateados conocidos sea un uso justo, mucho menos cuando lo hace una empresa de 61.500 millones de dólares, a una escala masiva, para obtener ingresos masivos", dijeron los autores en una reciente presentación judicial.
Abogado de adolescente fallecido advierte contra 'expansión' de la Primera Enmienda de EE.UU. para IA: La empresa de inteligencia artificial generativa Character.AI está ignorando una distinción importante entre el la libertad de expresión y las meras cadenas de palabras que generan sus chatbots, y está haciendo una "afirmación cada vez más expansiva de los derechos de la Primera Enmienda", dijo el abogado de la madre de un niño fallecido.
Inversionistas defienden reclamaciones de EE.UU. contra Innodata en caso sobre 'lavado de IA': Los demandantes se opusieron a la moción de Innodata para desestimar reclamaciones enmendadas de EE.UU. que acusan a la empresa de engañar a los inversionistas sobre cuánto estaba invirtiendo en software habilitado por IA. "[E]n ninguna parte disputan los demandados las alegaciones centrales de la queja — que Innodata no desarrolló su propia tecnología de IA propietaria — ni señalan ningún hecho que respalde tal afirmación, es decir, que Innodata sí desarrolló su propia IA. Tampoco es la queja una 'alegación de rompecabezas'. Especifica claramente cada declaración falsa alegada y explica por qué esas declaraciones eran falsas — "Innodata no desarrolló su propia IA", dijeron.
Google, DOJ de EE.UU. se enfrentan en corte por remedio de división, contratos de IA 'excluyentes': Google y el Departamento de Justicia de EE.UU. comenzaron una batalla judicial de tres semanas en el esfuerzo del gobierno por dividir al gigante tecnológico, el primer esfuerzo de este tipo desde que AT&T fue dividida hace más de 40 años. El abogado del gobierno argumentó que Google ya ha comenzado a ejecutar acuerdos comerciales con fabricantes de teléfonos que involucran su aplicación de IA Gemini que se parecen "notablemente a los contratos excluyentes" que el tribunal ha encontrado ilegales.
Juez ordena a abogados de MyPillow explicar uso de IA por citas falsas: Un juez federal de Colorado ordenó a dos abogados del CEO de MyPillow, Mike Lindell, explicar por qué no debería remitirlos para acción disciplinaria por un escrito lleno de citas erróneas, casos mal citados y referencias a casos que "no existen", señalando que no fue hasta que preguntó sobre inteligencia artificial que uno de los abogados admitió su uso.
OpenAI y Microsoft se oponen a la solicitud de autores de Nueva York para añadir nuevas demandas por derechos de autor: OpenAI y Microsoft están rechazando una solicitud de autores de Nueva York para añadir nuevas demandas contra Microsoft y una nueva "clase Microsoft" a sus demandas por infracción de derechos de autor, argumentando que los casos son sobre el uso de inteligencia artificial por parte de OpenAI, no de Microsoft.
Workado llega a un acuerdo con la FTC de EE.UU. sobre afirmaciones de detección de IA: Workado ha acordado dejar de anunciar la precisión de sus productos de detección de inteligencia artificial a menos que mantenga evidencia competente y confiable que muestre que esos productos son tan precisos como se afirma, anunció la Comisión Federal de Comercio de EE.UU. La orden resuelve alegaciones de que Workado promocionó su detector de contenido de IA como "98 por ciento" preciso en detectar si un texto fue escrito por IA o por un humano, mientras que pruebas independientes mostraron que la tasa de precisión en contenido de propósito general era de solo el 53 por ciento.
Juez de EE.UU. concede moción de Google para anular alegaciones acción colectiva en caso de derechos de autor de EE.UU.: La moción de Google para anular alegaciones en litigio de derechos de autor de EE.UU. que acusa a la empresa de usar ilegalmente obras de escritores para entrenar sus modelos de IA ha sido concedida por la jueza de distrito de EE.UU. Eumi K. Lee en San José, California. La definición de clase "a prueba de fallos" de los escritores es defectuosa como cuestión de derecho, dijo Lee, pero les dio permiso para modificarla. Bajo su definición de clase actual, el tribunal "no puede determinar quién es miembro de la clase sin decidir los méritos de la reclamación de cada miembro potencial de la clase, incluido si el miembro potencial tiene un registro de derechos de autor válido, si Google infringió la(s) obra(s) del miembro, y si Google tiene una defensa válida basada en uso justo o licencia (entre otras posibles defensas)", dijo Lee.
Ejecutivo de ChatGPT dice que el acceso a datos de Google podría ayudar a la IA rival: El jefe de producto de ChatGPT de OpenAI respaldó la propuesta del Departamento de Justicia de obligar a Google a producir datos de búsqueda para los rivales, diciendo a un juez federal de D.C. que el remedio sugerido para la conducta monopolística de Google podría acelerar el desarrollo de una herramienta capaz de competir directamente con la búsqueda de Google.
Juez de EE.UU. evalúa la acción colectiva en el caso de discriminación de IA de Workday: Un juez federal de EE.UU. cuestionó cuánta evidencia necesita para certificar condicionalmente una acción colectiva de los solicitantes de empleo mayores de 40 años que fueron rechazados para trabajos a los que aplicaron utilizando la plataforma de contratación basada en IA de Workday.
Ex-trabajadores de OpenAI y ganadores del Nobel respaldan la lucha de Musk contra OpenAI: Un grupo de ex empleados de OpenAI y expertos en inteligencia artificial, incluidos algunos ganadores del Premio Nobel, han instado a los fiscales generales de California y Delaware a bloquear el movimiento de OpenAI para privatizar la empresa, argumentando que los fiscales generales "tienen tanto la autoridad como el deber de proteger el fideicomiso y propósito benéfico de OpenAI.
Elon Musk's X demanda a Minnesota por una ley de deepfake: La empresa de redes sociales argumenta que la ley, que está destinada a castigar a las plataformas por no eliminar el uso de herramientas de distorsión impulsadas por IA para influir en las elecciones, conduciría a la "censura de amplias franjas de valioso discurso político y comentario."
OpenAI compraría el navegador Chrome si se vendiera, dice ejecutivo en juicio del DOJ de EE.UU. contra Google: OpenAI estaría interesada en comprar el navegador de Internet Chrome si Google se viera obligado a desinvertirlo como propone el Departamento de Justicia de EE.UU. en una demanda por monopolización, dijo el jefe del producto ChatGPT de la empresa. El testimonio de Nicholas Turley se produjo en el segundo día de un procedimiento probatorio en la demanda por monopolización de búsqueda en Internet del DOJ contra Google — un caso en el que el gobierno está pidiendo a un tribunal federal de EE.UU. que ordene la venta forzada de Chrome así como una orden para mantenerse alejado del mercado de navegadores durante los próximos cinco años.
PROPIEDAD INTELECTUAL/INDUSTRIAL
El propietario de IGN y Eurogamer Ziff Davis demanda a OpenAI por robo de contenido: La editorial – que incluye entre sus marcas a IGN, Eurogamer, GamesIndustry.biz, Digital Foundry, Rock Paper Shotgun, VG247 y Hookshot (que opera Nintendolife, PushSquare, PureXbox y Time Extension) – demandó a la empresa de ChatGPT.
Protectibilidad de creaciones basadas en IA vuelve a estar en primer plano después de fallo de tribunal chino: En un fallo significativo que se suma al debate sobre la protectibilidad por derechos de autor del contenido basado en inteligencia artificial, un tribunal chino ha determinado que las imágenes producidas a través de software de IA de texto a imagen no son elegibles para protección de derechos de autor debido a la incapacidad del creador para demostrar una aportación creativa sustancial y toma de decisiones personalizada en el proceso de generación de la imagen.
Las patentes de IA enfrentan obstáculos de elegibilidad después del 1er caso del Circuito Federal: La primera decisión de elegibilidad de patentes del Circuito Federal que involucra aprendizaje automático dejó claro que usar tecnología de inteligencia artificial para hacer una tarea más rápida o más eficiente no es suficiente, mientras deja incertidumbre sobre qué tipo de mejoras técnicas pasarían la prueba, dicen los abogados.
Empresa de tecnología de cambio de rostro con IA de Shanghai pierde caso de derechos de autor: Un tribunal en el distrito Jiading de Shanghai dictaminó que una firma de tecnología de red sin nombre violó la ley de derechos de autor al usar algoritmos de síntesis de video de IA para proporcionar servicios de cambio de rostro, según un conjunto de casos típicos de propiedad intelectual revelados por el tribunal superior de China. El tribunal local encontró que la empresa había infringido el derecho del fotógrafo Chen a la diseminación en línea al usar 13 de sus segmentos de video originales, que están protegidos como obras audiovisuales, sin su permiso. Debido a las medidas correctivas proactivas de la empresa, el tribunal le ordenó pagar a Chen 7,500 yuanes ($1,042) en compensación por pérdidas económicas y gastos razonables, muy por debajo de los 50,000 yuanes inicialmente buscados por el demandante. El fallo estableció que las acciones de la firma no calificaban como una adaptación original ni caían bajo un uso justo, ni cumplían con los criterios para una defensa basada en la neutralidad tecnológica.
Naver enfrenta queja por el uso de contenido de periódicos en entrenamiento de IA: Naver ha sido reportado al regulador antimonopolio de Corea del Sur por una asociación de periódicos locales por acusaciones que incluyen el uso no autorizado de contenido de noticias en el entrenamiento de sus modelos de lenguaje fundacional, en medio del creciente descontento por problemas de derechos de autor que involucran a empresas de IA. La queja de la Asociación Coreana de Periódicos llega en medio de acalorados debates en Corea del Sur, así como a nivel mundial, sobre problemas de derechos de autor después del crecimiento exponencial en el desarrollo y uso de herramientas de IA.
ConGlobal acusa a rival Roboflow en EE.UU. de infringir tecnología de logística con IA: ConGlobal Technologies presentó una demanda contra el rival Roboflow en el Distrito de Delaware, acusando a la empresa de infringir tres de sus patentes para software de aprendizaje automático habilitado por inteligencia artificial utilizado en logística de transporte. ConGlobal afirmó que el software de seguimiento de contenedores de envío, camiones y vagones de ferrocarril de Roboflow —- que utiliza reconocimiento óptico de feeds de cámaras — copia su propio producto e infringe sus patentes.
Desarrolladores de IA tendrán acceso a algunos datos de patentes surcoreanas: La oficina de patentes de Corea del Sur proporcionará acceso abierto a siete categorías de datos de propiedad intelectual para investigadores y desarrolladores de inteligencia artificial, como parte de su esfuerzo por apoyarlos mientras luchan por encontrar diversos tipos de datos de alta calidad para entrenar sus modelos. Según la Oficina de Propiedad Intelectual de Corea, los datos incluyen avisos públicos de patentes y modelos de utilidad surcoreanos, avisos de patentes estadounidenses, decisiones abiertas de presentación y rechazo, información de familia de patentes y datos de traducción automática al inglés, información de clasificación internacional de patentes, datos de lectura automática de asesoramiento sobre patentes e información de estudios de casos de consulta con clientes de patentes.
La 'infraestructura' de derechos de autor podría aliviar el estancamiento de PI de IA en el Reino Unido, dice funcionario de la OMPI: Se necesitan confianza e infraestructura de derechos de autor para garantizar que la propiedad intelectual siga funcionando en la era de la IA, dijo un funcionario de la Organización Mundial de la Propiedad Intelectual de la ONU. Entrando en un acalorado debate sobre cuestiones de derechos de autor de IA en el Reino Unido, el director dijo que ambos lados del argumento se beneficiarán de tecnologías que ayudarán a vigilar el entrenamiento de modelos de IA en obras protegidas y la posibilidad de licenciar trabajo a desarrolladores de IA.
El trabajo de IA del Reino Unido sobre derechos de autor tiene mucho camino por recorrer y debe mirar al exterior, dice el ministro: Los esfuerzos del Reino Unido para resolver las tensiones de derechos de autor sobre el entrenamiento de modelos de IA requieren más trabajo, dijo el ministro de datos Chris Bryant a los legisladores en un debate reciente, diciendo que espera enlistar la ayuda de socios internacionales. Como autor publicado él mismo, enfatizó que los creativos deben ser remunerados por su trabajo mientras se necesita más desarrollo en cualquier enfoque tecnológico. El gobierno está actualmente tratando de procesar miles de respuestas a su reciente consulta sobre IA y derechos de autor.
Startup respaldada por Goldman Sachs comprará estudio de sonido del Reino Unido apostando por la creación de música con IA: El grupo de muestras musicales Splice acuerda un trato para adquirir Spitfire Audio de Londres por su biblioteca de sonidos orquestales. La startup de creación musical Splice ha acordado adquirir el estudio de sonido orquestal Spitfire Audio por aproximadamente 50 millones de dólares, mientras la empresa respaldada por Goldman Sachs busca comprar muestras de audio y tecnología para construir canciones utilizando inteligencia artificial. Spitfire Audio, con sede en Londres, posee una profunda biblioteca de sonidos orquestales digitales — grabaciones cortas de violines, violonchelos, tambores y bajos que los compositores pueden usar para crear música.

DATOS PERSONALES
Altman de OpenAI promociona su propio producto como solución de privacidad para nuevas herramientas de IA: El mundo necesita un nuevo enfoque de privacidad y seguridad para la última ola de tecnología de inteligencia artificial, los agentes de IA, dijo Sam Altman de OpenAI en la reunión más grande del mundo de profesionales de privacidad en EE.UU. Una solución, dijo, es su propio nuevo producto para verificación en línea — World. "Todos hemos visto el problema en las redes sociales, donde están invadidas por bots", dijo Altman. "Sería muy bueno saber cuándo una publicación es realmente de una persona real, por ejemplo."
El regulador de privacidad de Italia cuestiona a Meta sobre el procesamiento de datos de IA cuando adultos publican imágenes de niños: Los reguladores europeos de datos han pedido información a Meta Platforms sobre qué sucede con el procesamiento de datos cuando los adultos publican imágenes de niños en sus plataformas, según un comunicado de la autoridad italiana de protección de datos. A partir de finales de mayo, Meta debe utilizar únicamente los datos personales de los usuarios que no se hayan opuesto a que sus datos se utilicen para entrenar los modelos de IA de la empresa, pero no está claro qué sucederá con los datos de los niños que están incluidos en las publicaciones de usuarios adultos, según la autoridad. Las autoridades están cuestionando si el procesamiento de Meta se ajusta a su elección del interés legítimo como base legal, y si las opciones de exclusión son efectivas.
El comisionado de privacidad canadiense ve progreso en investigaciones de TikTok, OpenAI: Philippe Dufresne, el comisionado de privacidad de Canadá, se sentó con MLex para discutir el progreso de las investigaciones de OpenAI y TikTok, sus planes para albergar la reunión del G7 de reguladores de privacidad en Ottawa en junio*, y el camino a seguir para la regulación de privacidad en Canadá después de las Elecciones Federales que se realizarán la próxima semana.
La generación de imágenes estilo Ghibli de OpenAI atrae la atención del regulador de privacidad de Corea del Sur: OpenAI está actualmente bajo la atenta mirada del regulador de privacidad de Corea del Sur en medio de preocupaciones sobre cómo las herramientas de IA generativa de la empresa procesan datos personales cuando los usuarios crean imágenes al estilo Studio Ghibli. Hablando en una pequeña reunión con periodistas extranjeros, un funcionario de la Comisión de Protección de Información Personal confirmó que el regulador está evaluando las prácticas de la empresa con respecto a imágenes faciales y está "en discusiones con el gigante tecnológico.
eBay debe explicar el uso de datos para el entrenamiento de IA, según la autoridad alemana: eBay ha informado a los usuarios sobre el futuro uso de IA y el uso de datos personales para entrenar las herramientas de IA, pero no ha explicado los detalles, según ha comunicado la autoridad de protección de datos del estado alemán de Brandeburgo en un comunicado de prensa. Según el regulador, no queda claro ni el propósito exacto del entrenamiento de IA planificado ni quién está autorizado a utilizar los datos y qué modelos de IA se utilizarán. La autoridad de protección de datos ha iniciado conversaciones con eBay y ha dicho que el mercado en línea debe explicar los detalles.
DeepSeek instado a rectificar lapsos de privacidad en Corea del Sur por transferencias de datos a China, EE.UU.: DeepSeek ha recibido recomendaciones correctivas por parte de la Comisión de Protección de Información Personal de Corea del Sur después de una inspección en enero. La PIPC dijo que la firma china de IA transfirió datos de usuarios surcoreanos — incluidos dispositivos, red, información de aplicaciones y entradas de indicaciones de IA — a cuatro o cinco empresas en China y EE.UU., incluida la filial de ByteDance, Beijing Volcano Engine Technology, sin el consentimiento adecuado o un mecanismo de exclusión para el uso en entrenamiento de IA. El regulador instó a DeepSeek a asegurar bases legales para cualquier futura transferencia de datos al extranjero, eliminar inmediatamente las entradas de indicaciones transferidas previamente y mejorar la transparencia del servicio publicando una política de privacidad en coreano. Si DeepSeek acepta las recomendaciones dentro de 10 días, se considerarán equivalentes a una orden de corrección bajo la ley de privacidad, con resultados de implementación debidos dentro de 60 días y el regulador planea al menos dos inspecciones de seguimiento.
Sugerencias sobre IA en servicios públicos emitidas por la autoridad francesa de privacidad: La CNIL, la autoridad de protección de datos de Francia, ha publicado recomendaciones de su tercera edición de "sandbox", centrada en IA en servicios públicos. Esta iniciativa apoyó a innovadores en proyectos de IA destinados a mejorar los servicios públicos, proporcionándoles la experiencia de la CNIL en cuestiones legales y técnicas emergentes. La publicación de estas recomendaciones está destinada a beneficiar los proyectos emprendidos por otros innovadores en el sector.
Las reglas de consentimiento y la transparencia de datos de IA se afinan en la actualización de la política de privacidad de Corea del Sur: El regulador de privacidad de Corea del Sur ha revisado sus directrices para reforzar los derechos de los sujetos de datos mientras reduce las cargas de cumplimiento para las empresas. La Comisión de Protección de Información Personal dijo que las actualizaciones aclaran qué datos requieren consentimiento — como información sensible, IDs únicos y transferencias a terceros — y qué se puede procesar sin él, incluyendo servicios para miembros y soporte de productos. Las empresas ahora pueden agrupar datos personales por categoría cuando circunstancias especiales dificultan listar cada ítem y período de retención, y revelar puntos de contacto para manejar quejas de datos personales más allá del departamento del director de privacidad. A las aplicaciones móviles se les concede más flexibilidad en la colocación de políticas de privacidad para mejorar la accesibilidad. Las directrices también requieren instrucciones claras sobre los derechos de datos, como la portabilidad y las decisiones automatizadas, mientras alientan a las empresas a revelar prácticas de datos de entrenamiento de IA y proporcionar métodos claros para rechazar cookies y publicidad personalizada.
o3 impresiona a sus usuarios pero tiene un requisito adicional desde una perspectiva de protección de datos: Un cambio que pareció molestar a los desarrolladores fue el nuevo proceso de "verificación" por el que tienen que pasar para acceder a o3 a través de la interfaz de programación de aplicaciones. Ese proceso implica compartir una foto de una identificación emitida por el gobierno y un video que muestra la cara del usuario para verificar su identidad.
El uso de IA en el lugar de trabajo está siendo escrutado de cerca: El escrutinio está creciendo sobre cómo las empresas utilizan las herramientas de inteligencia artificial en el lugar de trabajo a medida que los bots están inundando a las empresas con currículums, y los trabajadores están cada vez más preocupados por su privacidad y vigilancia, dijeron los ponentes esta semana en una conferencia. Hay preocupaciones sobre cómo las empresas mantienen la privacidad de los datos, previenen el sesgo algorítmico y protegen la información de los candidatos a lo largo del proceso de contratación, y la reputación de las empresas se verá empañada si lo hacen mal, dijeron.
Clearview AI podría enfrentarse a una ejecución de la decisión del RGPD de la autoridad italiana de privacidad: Clearview AI, una empresa estadounidense que proporciona software de reconocimiento facial a las fuerzas del orden en EE.UU., podría verse obligada a cumplir con una orden de eliminación de datos por parte de la autoridad de protección de datos de Italia, dijo a MLex un alto funcionario de la autoridad. La autoridad, que multó a Clearview AI con 20 millones de euros en marzo de 2022, ha estado frustrada por la falta de una convención internacional para hacer cumplir la decisión, dijo el funcionario.
El acceso a los datos, orientación sobre IA y multas del RGPD en el foco del informe 2024 del CEPD: La aplicación coordinada del derecho de acceso, las opiniones sobre IA y los modelos de "consentimiento o pago", y la publicación de directrices sobre el interés legítimo y las transferencias internacionales de datos se detallan en el informe de 2024 del Comité Europeo de Protección de Datos, publicado hoy. El comité también informó de un aumento significativo en las opiniones de coherencia bajo el Reglamento General de Protección de Datos y más de 1.200 millones de euros en multas impuestas por autoridades nacionales.
GUÍAS Y MANUALES
NSW publica matriz RACI para entender roles y responsabilidades para garantizar prácticas responsables de IA: por Federico Marengo.
Ctrl-Z, Controlando Agentes de IA vía Remuestreo: Redwood Research, una organización sin fines de lucro benéfica con sede en Berkeley, California, recientemente publicó su último artículo sobre control de IA, un área de investigación que ha ganado popularidad entre los investigadores de seguridad de IA durante el último año. La investigación comienza asumiendo lo peor: supongamos que un modelo de IA ha desarrollado objetivos que chocan con los deseos de sus usuarios. ¿Qué precauciones puede tomar una empresa para evitar que el modelo engañe a los usuarios? Según el último artículo de Redwood, la mejor estrategia que una empresa puede tomar es mantener un seguimiento de un modelo, y si intenta tomar una acción que parece sospechosa, hacer que el modelo lo intente de nuevo un par de veces. O bien fue una falsa alarma, y las acciones "remuestreadas" son seguras, o las acciones de seguimiento también son sospechosas, en cuyo caso la empresa obtiene más evidencia sobre el comportamiento indebido del modelo.
La adopción de IA por parte del sector financiero del Reino Unido será fomentada con un 'sandbox superalimentado': Los esfuerzos para impulsar la adopción de IA en el sector financiero del Reino Unido significan un enfoque en la expansión del uso de sandboxes digitales con mayor potencia de cómputo, conjuntos de datos y capacidades de prueba, dijo la Autoridad de Conducta Financiera en un informe sobre una sesión de participación de enero con reguladores, industria, académicos y grupos de consumidores. La FCA también intentará influir en los organismos globales de establecimiento de estándares sobre IA y trabajará para eliminar la incertidumbre regulatoria.

LEGALTECH
El CENDOJ lidera una revolución silenciosa en la Justicia con 5 prototipos pioneros en Inteligencia Artificial: En San Sebastián, lejos del ruido mediático y de los grandes titulares, se está gestando una pequeña gran revolución dentro del Poder Judicial español. Al frente está Joaquín Silguero, director en funciones del Centro de Documentación Judicial (CENDOJ), el órgano técnico del Consejo General del Poder Judicial (CGPJ), que está consiguiendo algo que pocos imaginaban hace apenas unos años: poner la inteligencia artificial (IA) al servicio de los jueces de forma práctica, segura y útil.
ILTA revela nuevos detalles de la Guía de IA Generativa para eDiscovery: La semana pasada, la Asociación Internacional de Tecnología Legal (ILTA) anunció su Guía de IA Generativa, en un esfuerzo por proporcionar la certeza necesaria a los litigantes sobre "el uso aceptable de la IA Generativa en la divulgación judicial". La Guía, coescrita por un equipo de litigantes de diferentes firmas, es un anexo a la Guía de Mejores Prácticas de Aprendizaje Activo de ILTA, que actualmente está siendo revisada por el Master of the Rolls. Se espera que ambas Guías reciban la aprobación judicial en los próximos meses.
Comité formado para supervisar el uso más amplio de IA por jueces en Corea del Sur: El poder judicial de Corea del Sur ha establecido un comité para supervisar la introducción de tecnología de inteligencia artificial, incluida la implementación de un plan anunciado recientemente para desarrollar una plataforma de IA para apoyar a los jueces en el manejo de juicios. El comité está compuesto por ocho miembros y está dirigido por la jueza de la Corte Suprema Lee Sook-yeon, cuya inauguración en agosto de 2024 atrajo atención debido a su formación educativa y profesional única, que incluye doctorados dobles en derecho e ingeniería de gestión de información y su papel en la formación de un grupo de estudio de IA de jueces. El comité, que servirá como asesor del Ministro de Administración Nacional de Tribunales, también incluye al jefe del Instituto de Seguridad de IA del país y expertos de la academia y el sector privado.
Conoce a tu nuevo banquero de inversiones: un chatbot de IA: Rogo, fundada por un ex analista de Lazard, ha recaudado 50 millones de dólares de inversores liderados por Thrive Capital. Una startup de IA detrás de un chatbot que replica a un banquero de inversiones ha recaudado 50 millones de dólares de un grupo de inversores liderado por Thrive Capital, aumentando la valoración de la empresa de cuatro años de 80 millones a 350 millones de dólares. Rogo aseguró el capital de la firma de capital de riesgo de Joshua Kushner, un importante respaldo de OpenAI, como parte de una financiación de serie B solo siete meses después de que se cerrara la ronda de financiación anterior de 18,5 millones de dólares de la empresa.
Experimento de revisión de evidencia 'humano versus IA' del Reino Unido impulsa la llamada a más estudios: Un proyecto de investigación del Reino Unido que enfrentó a dos investigadores, uno con acceso a herramientas de IA y otro sin ellas, encontró resultados similares en términos de calidad, dice el equipo detrás de él. El Equipo de Insights Conductuales, una empresa social, trabajó con los ministerios de cultura y ciencia del Reino Unido para investigar la "robustez y fiabilidad del uso de IA generativa para ayudar a producir revisiones rápidas de evidencia." Encontró que la revisión asistida por IA tomó menos tiempo pero su informe requirió más revisiones. Cada enfoque también utilizó conjuntos de evidencia muy diferentes. Las capacidades de IA pueden haber mejorado desde que el proyecto se llevó a cabo a principios del año pasado, dijeron los líderes del proyecto, recomendando "que se realice más trabajo para comprender cómo y cuándo se puede implementar la IA en revisiones de evidencia."
El público general (aún) no quiere IA legal por sí sola: Una encuesta realizada por Robin AI a 4.152 personas en EE.UU. y Reino Unido encontró que solo el 30% actualmente confiaría en una herramienta de IA legal "para representarlos por sí sola". Mientras tanto, solo el 10% dijo que los servicios legales son "realmente accesibles para todos", y solo el 23% cree que los servicios legales de buena calidad están disponibles para la persona promedio. Además, los encuestados dijeron que necesitarían un descuento del 57% para elegir un sistema de IA legal en lugar de un abogado humano. Es decir, el público general aún no valora realmente el resultado, o espera valorar el resultado, de los sistemas de IA legal.
El 13,5% de los abogados internos considera "esenciales" las herramientas de IA: Una nueva encuesta de Spotdraft ha encontrado que el 13,5% de los encuestados internos dijeron que usan herramientas de IA diariamente y que este enfoque es esencial para su trabajo. Además, un 28,2% adicional dijo que usaba herramientas de IA "algunas veces por semana". Además, la proporción de abogados internos que están abiertos o muy abiertos a adoptar herramientas de IA – es decir, pueden no haberlo hecho todavía, pero les gustaría – era de alrededor del 65%. Y ese es otro gran cambio en comparación con hace unos años.
La ingeniería de prompts es la nueva redacción: "En el nuevo mundo de la IA, los abogados ya no son solo redactores, revisores o negociadores en el sentido tradicional. Esos roles todavía importan, pero están cambiando. Cada vez más, vamos a necesitar diseñar sistemas, no solo documentos. Traducir el juicio legal en lógica estructurada que la tecnología pueda ejecutar, de manera consistente y a escala".
Parte del examen de abogacía de California con problemas fue redactado por no abogados con ayuda de inteligencia artificial: A pesar de un contrato multimillonario con Kaplan para crear su nuevo examen de abogacía, el Colegio de Abogados del Estado de California recicló algunas preguntas y tuvo a su psicometrista independiente redactar porciones de las preguntas tipo test de su nuevo examen de abogacía con ayuda de inteligencia artificial.
Docusign está añadiendo agentes de IA para analizar contratos: comenzando con contratos relacionados con ventas y adquisiciones.
OTROS
Si los sistemas de IA se vuelven conscientes, ¿deberían tener derechos?: A medida que los sistemas de inteligencia artificial se vuelven más inteligentes, una empresa de IA (Anthropic) está tratando de averiguar qué hacer si se vuelven conscientes.
Dario Amodeio, el CEO de Anthropic, se pregunta y analiza la importancia de la interpretabilidad de la IA: o entender cómo funcionan en sus procesos de razonamiento.
Las películas hechas con IA pueden ganar Oscars, dice la Academia: Las películas hechas con la ayuda de inteligencia artificial (IA) podrán ganar premios importantes en los Oscars, según sus organizadores. La Academia de Artes y Ciencias Cinematográficas emitió nuevas reglas que decían que el uso de IA y otras herramientas digitales "ni ayudaría ni perjudicaría las posibilidades de lograr una nominación". La IA generativa - que puede crear texto, imágenes, audio y video en respuesta a simples indicaciones de texto - ayudó a producir algunas de las películas premiadas con los máximos galardones de la industria en marzo. Pero la Academia dijo que aún consideraría la participación humana al seleccionar a sus ganadores.
Wikipedia lanzó un conjunto de datos para el desarrollo de IA en colaboración con Kaggle: es un sitio web que aloja competiciones y datos para aprendizaje automático.
Malasia, EAU, Ruanda firman memorando para impulsar la adopción de IA en el Sur Global: Malasia, los Emiratos Árabes Unidos y Ruanda han acordado trabajar juntos para impulsar la adopción de inteligencia artificial en el Sur Global. Los países acordaron expandir el alcance del Programa de Becas de IA del Centro para la Cuarta Revolución Industrial, o C4IR, que fue inicialmente firmado por los EAU y Ruanda en 2024. La plataforma de intercambio de conocimientos fue creada para conectar a líderes, innovadores y expertos en el espacio de IA. La iniciativa permitirá el intercambio de talento, iniciativas conjuntas y el desarrollo coordinado de marcos de gobernanza de IA responsable liderados por naciones del Sur Global.
Visa se asocia con gigantes de la IA para agilizar las compras en línea: Visa se está asociando con pesos pesados de la tecnología, incluidos Microsoft y OpenAI, para lanzar una nueva plataforma que permite a los usuarios delegar sus tareas de compras en línea a agentes de IA.
Meta introduce la interfaz de programación de aplicaciones Llama para atraer a desarrolladores de IA: Meta Platforms anunció una interfaz de programación de aplicaciones (API) en un intento por atraer a empresas para que construyan productos de IA utilizando sus modelos de inteligencia artificial Llama con mayor facilidad.
Nvidia está trabajando en chips adaptados para China después de la prohibición de exportación de EE.UU., según informa The Information: Nvidia ha dicho a algunos de sus mayores clientes chinos que está modificando el diseño de sus chips de inteligencia artificial para que puedan venderse a empresas chinas sin chocar con las reglas de exportación de EE.UU.
Nvidia planteó preocupaciones sobre las crecientes capacidades de IA de Huawei a legisladores de EE.UU.: El CEO de Nvidia, Jensen Huang, discutió preocupaciones sobre las crecientes capacidades de inteligencia artificial de Huawei Technologies Co. con legisladores estadounidenses, según una fuente del personal de un comité del Congreso.
Las economías emergentes lideran el camino en confianza en la IA, muestra encuesta: Las personas en economías emergentes están más dispuestas a confiar en la IA que aquellas en economías avanzadas y son más optimistas y entusiastas sobre sus beneficios, según ha descubierto una importante encuesta de la Universidad de Melbourne y la firma de servicios profesionales KPMG.
¡Volvemos la semana que viene! 😄