Propuestas para la futura normativa sobre IA en EEUU

Analizamos las propuestas de OpenAI, Anthropic y Google para la futura normativa sobre IA de EEUU; y novedades de la semana 🧐

Propuestas para la futura normativa sobre IA en EEUU
Photo by Lucas Sankey / Unsplash

La reciente Orden Ejecutiva sobre Inteligencia Artificial de Donald Trump instruyó la elaboración de un Plan de Acción sobre IA con el fin de “sostener y reforzar el dominio global de EE.UU. en IA”.

Su idea es que: La Administración Trump está decidida a garantizar que Estados Unidos sea el líder indiscutible en tecnología de inteligencia artificial. Este Plan de Acción sobre IA constituye el primer paso para asegurar y avanzar en el liderazgo estadounidense en IA, y esperamos incorporar los comentarios e ideas innovadoras del público”, según Lynne Parker, la Directora Adjunta Principal de la Oficina de Política Científica y Tecnológica (OSTP).

Para ello se abrió una audiencia pública que finalizó el pasado 15 de marzo.

OpenAI, Google y Anthropic, los tres grandes en la batalla por la IA generativa (junto a Meta), presentaron sus recomendaciones y las han hecho públicas.

Veamos qué sugieren hacer al nuevo gobierno Trump en materia de normativa y gobernanza sobre IA:

OpenAI

Sus recomendaciones pueden leerse aquí (15 páginas). Se resumen en:

  1. Preeminencia federal sobre leyes estatales: Se debe crear un marco voluntario para asociaciones entre el gobierno federal y el sector privado, proporcionando a las empresas de IA estadounidenses alivio regulatorio frente a las más de 781 propuestas legislativas estatales, que podrían entorpecer la innovación.
  2. Estrategia de control de exportaciones: Implementar un sistema de tres niveles para diferenciar países (Nivel I para aliados democráticos, Nivel II para países con riesgo de desvío tecnológico, Nivel III para China y sus aliados), promoviendo la adopción mundial de "IA democrática" mientras se protege la ventaja estadounidense.
  3. Protección del entrenamiento con material con copyright: Mantener la doctrina de "Fair Use" del derecho de autor estadounidense para permitir que los modelos de IA aprendan de material protegido por derechos de autor, evitando así desventajas competitivas frente a China, que no respeta tales restricciones. También limitar la influencia de países cuyos sistemas legales limiten esos usos (UE).
  4. Inversión en infraestructura de IA: Desarrollar vehículos de inversión como un Fondo Soberano de Riqueza y garantías gubernamentales para asegurar que fluya capital suficiente hacia la construcción de infraestructura de IA en EE.UU.
  5. Ley Nacional de Transmisión: Crear una iniciativa ambiciosa similar a la Ley de Autopistas Interestatales de 1956 para expandir la infraestructura de transmisión eléctrica, fibra óptica y gasoductos, agilizando los procesos de planificación, permisos y financiación.
  6. Zonas Económicas de IA: Establecer zonas especiales que aceleren los permisos para infraestructuras de IA (arrays solares, parques eólicos, reactores nucleares), potencialmente con exenciones a la Ley de Política Ambiental Nacional por motivos de seguridad nacional.
  7. Estrategia Nacional de Preparación para IA: Desarrollar programas de capacitación en comunidades locales para crear una fuerza laboral preparada para la IA, ampliando los planes de ahorro “529” para cubrir programas de formación relacionados con la cadena de suministro de IA.
  8. Modernización de reglas de seguridad cibernética: Actualizar FedRAMP (el programa de cumplimiento del gobierno federal de los Estados Unidos para obtener un enfoque estandarizado en la evaluación de la seguridad, la autorización y la supervisión continua de los productos y servicios en la nube) y así establecer una vía más rápida de aprobación de herramientas de IA para uso gubernamental, reduciendo el tiempo de 12-18 meses al estándar comercial de 1-3 meses.
  9. Asociaciones público-privadas para modelos de seguridad nacional: Desarrollar modelos personalizados entrenados con conjuntos de datos clasificados para tareas de seguridad nacional, requiriendo implementación local de los pesos de modelos y acceso a capacidad computacional significativa.
  10. Habilitación de Autorizaciones de Instalaciones: Acelerar el proceso de Autorización de Instalaciones (FCL) para laboratorios de IA avanzada comprometidos con la seguridad nacional, permitiéndoles colaborar más rápidamente con agencias gubernamentales en proyectos piloto y modelos personalizados.

Google

Sus recomendaciones pueden leerse aquí (12 páginas). Se resumen en:

  1. Reforma energética para datos: Google urge desarrollar políticas coordinadas para abordar la creciente demanda energética de centros de datos de IA, incluyendo reforma de permisos y transmisión eléctrica, ya que la infraestructura actual es inadecuada para el incremento proyectado de 40 GW a nivel global (2024-2026).
  2. Controles de exportación equilibrados: Recomienda una implementación cuidadosa de controles que protejan la seguridad nacional sin imponer cargas desproporcionadas a proveedores de servicios en la nube estadounidenses o crear desventajas competitivas.
  3. Inversión en I+D y computación: Solicita inversión sostenida en investigación fundamental y acceso amplio a recursos computacionales, conjuntos de datos de alta calidad y modelos avanzados para científicos e instituciones.
  4. Marco regulatorio federal unificado: Aboga por legislación federal que evite un mosaico de leyes estatales (como OpenAI), especialmente para modelos de IA fundacionales, creando un marco nacional unificado.
  5. Acceso justo a datos: Destaca la importancia de las reglas de derechos de autor equilibradas (otro que insiste en recurrir al “Fair Use”), crear marcos de privacidad que reconozcan excepciones para información pública, y un sistema eficiente de revisión de patentes.
  6. Enfoque regulatorio basado en riesgos: Propone una regulación proporcional a los riesgos específicos de cada aplicación, reconociendo los diferentes contextos de uso y construyendo sobre marcos sectoriales existentes.
  7. Modernización de adquisiciones gubernamentales: Impulsa la adopción gubernamental de IA mediante soluciones interoperables de múltiples proveedores, procesos de adquisición simplificados y mayor portabilidad de datos.
  8. Estándares técnicos basados en el mercado: Recomienda que EE.UU. apoye estándares basados en valores estadounidenses para evitar requisitos proteccionistas extranjeros y desarrolle protocolos de seguridad para modelos de frontera (de nuevo la idea de “IA democrática”).
  9. Obligaciones diferenciadas en el ecosistema: Aboga por una clara delineación de responsabilidades entre desarrolladores, implementadores y usuarios finales de IA, donde cada actor sea responsable de los aspectos que controla.
  10. Combatir barreras extranjeras restrictivas: Insta al gobierno a contrarrestar regímenes regulatorios extranjeros que busquen imponer cargas burocráticas indebidas que afectarían principalmente a empresas estadounidenses, promoviendo enfoques favorables a la innovación (¿alguien ha dicho UE? :p)​​​​​​​

Anthropic

Sus recomendaciones pueden leerse aquí (10 páginas). Se resumen en:

  1. Evaluación de modelos para seguridad nacional: Desarrollar capacidades gubernamentales para evaluar rápidamente cualquier sistema de IA potente, tanto nacional como extranjero, identificando posibles amenazas antes de que se materialicen.
  2. Fortalecimiento de controles de exportación: Reforzar las restricciones sobre semiconductores, herramientas de fabricación y ciertos pesos de modelos para frenar el desarrollo adversario de IA potente y mantener el liderazgo estadounidense.
  3. Mejora de seguridad en laboratorios de IA: Establecer protocolos de seguridad robustos en laboratorios de IA de vanguardia, creando canales de comunicación clasificados y no clasificados entre estos laboratorios y la Comunidad de Inteligencia.
  4. Expansión energética: Establecer el objetivo nacional de construir 50 gigavatios adicionales de energía dedicada a la industria de IA para 2027, agilizando los procesos de permisos y aprobaciones.
  5. Aceleración de adquisiciones de IA en el gobierno: Identificar sistemáticamente todos los casos donde empleados federales procesan texto, imágenes, audio o video, e implementar sistemas de IA apropiados para aumentar estos flujos de trabajo.
  6. Monitoreo económico: Mejorar los mecanismos de recolección de datos gubernamentales para capturar mejor los patrones de adopción de IA y sus implicaciones económicas.
  7. Control de chips H20: Aplicar controles de exportación a los chips H20 de alta memoria que actualmente pueden venderse a China y son útiles para entrenar y ejecutar modelos potentes.
  8. Acuerdos intergubernamentales: Exigir a los países que quieran albergar centros de datos con más de 50,000 chips de empresas estadounidenses que firmen acuerdos comprometiéndose a alinear sus sistemas de control de exportaciones y tomar medidas contra el contrabando.
  9. Optimización de recursos computacionales clasificados: Garantizar que el gobierno federal tenga acceso a infraestructura de computación en la nube y en sitios clasificados para realizar evaluaciones exhaustivas de modelos de IA fundacionales.
  10. Marco de adquisiciones adaptado: Crear un grupo de trabajo conjunto entre el Departamento de Defensa y la Oficina del Director de Inteligencia Nacional para desarrollar recomendaciones que aceleren los procesos de adquisición de sistemas de IA manteniendo estándares rigurosos.​​​​​​​​​​​​​​​​

En resumen, OpenAI es quizá el más agresivo: fuertes prohibiciones a países como China para el acceso a la tecnología, necesidad de usar datos protegidos de terceros para entrenar, alto nivel de desregulación o protección frente a regulaciones “onerosas” de terceros países o regiones, como la UE.

Por su parte, Google sigue una línea similar pero algo más suave. Además, con mucho foco en la estandarización técnica o acceso a datos en los mismo términos.

Anthropic coincide en temas como la necesidad de más infraestructura, protección frente al acceso de la tecnología por terceros países o facilitar la generación de energía, pero también es el que pone mayor foco en la seguridad de los modelos, sus desarrollos o el impacto económico de la IA y su monitorización.

Un tema llamativo es que los tres quieren que se acelere a toda costa la introducción de IA en el entorno público, ya sea identificando casos de usos, acelerando permisos para su aprobación y compra o coordinando esfuerzos con el sector privado.

Veremos cómo acaba esto, pero de las recomendaciones de los tres grandes del sector ya podemos intuir algunos temas donde EEUU seguramente va a profundizar a nivel de regulación y gobernanza: facilitar un mayor uso de energía y creación de infraestructura, colaboración público - privada, mínima regulación local o limitar acceso de hardware y modelos a terceros países.

El tema del uso indiscriminado de datos de terceros basándose simplemente en el “fair use” parece más difícil de conciliar con otras muchas empresas e interesados locales (por no hablar de otros muchos países). Así que será curioso ver cómo evoluciona eso…

GLOSARIO sobre IA y DERECHO

Añadimos ejemplos a varios de los conceptos e incorporamos los siguientes términos: Aprendizaje automático, Context Windows (Token), GPT, Token y Transformer.

Puedes consultar el glosario sobre IA y Derecho aquí.

RESUMEN DE LA SEMANA

  • Regulación y gobernanza: anteproyecto español sobre IA, tercer borrador del código de prácticas para RIA, consejo de expertos para RIA o posible ley europea sobre IA en el trabajo.
  • Tribunales y resoluciones: Amonestación del TC a un abogado por usar IA generativa o los líos de Meta en tribunales de USA y Francia.
  • Propiedad intelectual e industrial: la demanda a OpenAI en India abre el debate de si su marco regulatorio se ha quedado obsoleto.
  • Protección de datos: Google permite conectar tu historial de búsqueda con Gemini… o los bancos europeos se lanzan a probar DeepSeek.
  • Guías, informes y papers: tercer borrador del código de prácticas o IAs que desobedecen al usuario y le engañan incluso cuando le insistes.
  • Legaltech: piloto en Cataluña para redactar sentencias en juzgados de lo mercantil con IA.
  • Otros: el responsable de Anthropic cree que en 3-6 meses el 90% del código nuevo podría escribirse con IA y la totalidad en 12 meses…

Vamos con detalle qué pasó de la semana del 10 al 16 de marzo. 🤖

Already have an account? Sign in.

Subscribe to The Legal Letters: IA y Derecho

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe