Las implicaciones legales de los “gimnasios de IA”
Las grandes empresas de IA (OpenAI o Anthropic) y múltiples startups están apostando fuerte por el Reinforcement Learning o Aprendizaje por refuerzo (RL), entre otras razones para crear simulaciones de apps o servicios populares (Salesforce, Airbnb o Amazon) en los que agentes de IA entrenen día y noche la ejecución de tareas que luego puedan realizar debidamente en el mundo real.
Bienvenido a los ”AI gyms” o gimnasios de IA.
Esta misma semana The Information publicaba en exclusiva sobre cómo OpenAI y Anthropic están trabajando en “Co-workers”. Según el artículo, sólo Anthropic va a invertir el año que viene más de 1 billón de dólares en simular apps de empresa como Zendesk, Salesforce o Cercer (sector salud). OpenAI va a invertir otro billón en procesos de RL, incluyendo los gimnasios de IA.
Pero empecemos por el principio.
Los desarrolladores de IA han desembolsado miles de millones de dólares a nuevas empresas como Scale AI, Surge AI, Mercor y Turing para obtener acceso a los expertos humanos que esas empresas tienen para enseñar a sus modelos cómo responder preguntas correctamente en campos avanzados como la biología, la programación de software y la medicina.
Ese proceso forma parte del aprendizaje por refuerzo o RL, la nueva gran esperanza para seguir mejorando los modelos ahora que simplemente sumar computación y datos al pre-entrenamiento ya no da grandes saltos de calidad.
El RL está dando buenos resultados de inicio, pero el modelo usado ahora normalmente se considera rudimentario. En la actualidad se paga al experto humano de 90 a 250 dólares la hora para que dé una respuesta a una materia compleja (por ejemplo en Derecho). Luego se hace la misma pregunta al modelo de IA decenas de miles de veces. Todas las respuestas de la IA que coincidan con la del humano serán usadas para su entrenamiento.
El problema es que eso es un proceso caro, algo lento y no siempre es fácil encontrar expertos dispuestos a participar.
Y ahí surgen los AI gyms o gimnasios de IA.
Empresas como Matrices o Turing están creando entornos de entrenamiento para RL. O lo que es lo mismo, están creando simulaciones de apps o servicios (Airbnb, Salesforce, Amazon, Zendesk, Gmail, Excel, etc) donde el agente de IA ejecuta tareas de inicio a fin centenares de miles de veces bajo medición y supervisión humana. Una vez que sabe hacer una tarea, pasa a la siguiente.
Turing afirma que ya ha construido más de 1000 gimnasios de IA para aplicaciones de empresa.
El objetivo es que cuando el agente actúe en el mundo real, ejecute de forma correcta y segura la tarea para la que ha sido entrenado.
Así es como aprendió a jugar AlphaGo, por ejemplo.
De hecho, decía el CEO de Matrices, John Qian, que a muy largo plazo algo así podría llevarnos a escenarios donde le pidieras a una IA que te cree una empresa de software exitosa y que la consiga vender por su cuenta y bajo tu supervisión :p
Como me da que estamos muy lejos de eso, si es que llega, pasemos a la cuestión del día: si yo creo simulaciones de apps o servicios para entrenar mis IAs en esos espacios día y noche sin descanso, ¿no tiene eso alguna que otra implicación legal? 🤔 Ya que por ahora ninguno de los artículos hace mención de ello, aunque terceras empresas están intentado recrear software ajeno con alto nivel de detalle.
Algunas cuestiones que me llaman la atención legalmente en esto de los gimnasios de IA (aviso, tengo más preguntas que respuestas):
1.- Protección de datos personales: si el entrenamiento de la IA implica usar datos personales (por ejemplo de trabajadores para grabar un flujo de trabajo), ¿recurrimos a sintéticos para evitar un problema, no? De lo contrario, se puede poner difícil eso. De hecho, podríamos encontrarnos en escenarios de alto riesgo al monitorizar de forma sistemática entornos laborales y sensibles. También pueden surgir debates interesantes sobre si estamos en un escenario de responsable y encargado clásico o el detalle de la simulaicón del entorno del responsable hace que nos vayamos hacia la corresponsabilidad.
2.- Reglamento sobre IA: si el modelo entrenado es GPAI, habrá que documentar y compartir info técnica, informar sobre la política de cumplimiento de derechos de autor y publicar un resumen suficientemente detallado del contenido de entrenamiento. Si el modelo implicara algún riesgo sistémico, harán falta evaluaciones, mitigaciones, ciberseguridad reforzada y reporte de incidentes. Sin olvidar los deberes de transparencia, que podrían condicionar lo recolectado y simulado.
3.- Derechos de autor y minería de textos y datos (TDM): Clonar “lo esencial” de una una interfaz gráfica puede implicar riesgo legal (más en servicios tan conocidos) ya que hay elementos originales (no funcionales) que podrían haber sigo legalmente protegidas. Además, ¿qué nivel de simulación se alcanza? Es decir, ¿hasta qué punto se habría estudiado el servicio o app para crear una réplica casi exacta del mismo? Ya que esa “descompilación” del software para intentar crear una réplica tiene límites. Por otro lado, la excepción de DSM sobre minería de textos y datos entraría en juego, en especial si para el entrenamiento de la simulación uso FAQs, manuales o tutoriales oficiales. La empresa simulada debería poder oponerse a ello.
4.- Términos y condiciones del servicio simulado y contrato: si algo suelen decir los términos y condiciones de las apps (especialmente de esas tan grandes), es que prohiben la automatización, scraping o réplica de su contenido. Por tanto, ahí habría un obstáculo importante. Además, si la IA entrena con APIs integradas en la simulación, habrá que regular contractualmente la cantidad de peticiones que puede hacer, teniendo en cuenta que en una IA puede repetir una tarea decenas de miles de veces (o más) en un día.
5.- Ciberseguridad y acceso no autorizado: crear una simulación detallada de una app es en el fondo otra forma de hacer un test de penetración y detectar vulnerabilidades que podrían condicionar la seguridad del servicio y sus datos. Por tanto, habría que valorar desde accesos no autorizados (por ejemplo por una API integrada en la simulación que se escapó), al nivel de contención o el tipo de pruebas.
Hay más cuestiones: sectores regulados tipo sanitario o financiero, cuestiones específicas de las relaciones laborales, responsabilidad por defectos detectados en la simulación o errores causados por ella, apropiación de secretos empresariales y otros que seguro me dejo. 😅
En resumen, sobre el papel suena prometedor esto de los gimnasios de IA y no dudo que irán adelante con ello (en verdad ya están haciéndolo) ya que el nivel de pasta consumido ahora mismo es tan ingente que hay que conseguir generar dinero a toda costa. Pero suena que puede dar tardes de gloria desde múltiples perspectivas legales.
Ya no hablemos de cuestiones éticas o incluso filosóficas, ya que si empezamos a simular en detalle grandes servicios y apps, explícale luego tú a la gente que no vivimos en una simulación :p
En fin, quizá habría que conformarse con los gimnasios reales, pero me da que no será el caso…
Dicho esto, ahí va la actualidad del 14 al 20 de julio en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).
71 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otras.