El Paris Summit y el futuro de la regulación de la IA

Contamos de qué se habló en el AI Summit de París sobre regulación y recopilamos lo destacado en IA y legal del 10 al 16 de febrero 🤓

El Paris Summit y el futuro de la regulación de la IA
Photo by Chris Karidis / Unsplash

El AI Action Summit tuvo lugar la semana pasada en París los días 10 y 11 de febrero.

Con más de cien países representados y 1.500 líderes de los negocios, la sociedad civil y el mundo académico coincidieron en la capital francesa. Entre los temas a discutir: el futuro del trabajo, la sostenibilidad, la ciberseguridad, los códigos de práctica colaborativos o los riesgos de los modelos fundacionales.

¿Qué anticipó en cuanto a regulación de la IA? Pues que ahora mismo la mayoría del planeta no está especialmente interesada en ella. :p

Como muestra un botón, los dos primeros Summit, en UK y Corea del Sur, fueron titulados “AI Safety”. El de París fue llamado “AI Action”.

Una obvia declaración de intenciones.

Veamos por región o país las tendencias o novedades que se intuyen o dieron a conocer:

EUROPA

Europa parece que está en estado de electro shock, y no solo en materia regulatoria de la IA. Así que muchos de sus anuncios, con Francia a la cabeza, fueron mayormente reaccionado a lo que el resto del mundo está haciendo y que parece que no hemos visto venir.

La presidenta de la Comisión Europea, Ursula von der Leyen pronunció un discurso sobre los objetivos de IA de la Unión Europea, destacando el cambio hacia la ”acción”: "Esta cumbre gira en torno a la acción, y eso es exactamente lo que necesitamos ahora. Ha llegado el momento de que formulemos una visión de hacia dónde queremos que nos lleve la IA como sociedad y como humanidad, y luego debemos actuar y acelerar a Europa para llegar allí".

El presidente francés, Emmanuel Macron, anunció compromisos de inversión para reforzar el sector de inteligencia artificial de Francia por un total de 109.000 millones de euros en los próximos años. La financiación, presentada durante la cumbre de IA de París, incluye planes de la firma de inversión canadiense Brookfield para invertir 20 mil millones de euros en proyectos de IA en Francia y una financiación de los Emiratos Árabes Unidos que podría alcanzar los 50 mil millones de euros en los próximos años. 

Macron también propuso una regulación más ligera para impulsar la IA, el problema es que a más de un asistente a la cumbre de París le preocupa que Europa empiece a pasar por alto los riesgos de la IA solo por intentar seguir el ritmo de Estados Unidos y China.

En paralelo, la UE anunció 207 mil millones de dólares en financiación para la IA. Von der Leyen calificó la iniciativa como un "CERN para la IA".

Sea casualidad o no el timing, la realidad es que después del desafiante discurso de Vance, la Comisión anunció que retiraba la directiva sobre responsabilidad de la IA. Muchos entendieron la retirada como una maniobra estratégica de la UE para dar una imagen de apertura al capital y a la innovación, demostrando que prioriza la competitividad y que hay buena voluntad hacia la nueva administración estadounidense.

De hecho, OpenAI ya dijo que sin desregulación duda que aumente la inversión en infraestructura europea.

Veremos si funciona.

Por otro lado, se dio a conocer la Coalición para la IA Sostenible, un "centro colaborativo" para destacar cómo la IA puede servir a los objetivos ambientales a nivel global.

EEUU

El vicepresidente estadounidense JD Vance resumió claramente la posición de EEUU en su discurso: "No estoy aquí esta mañana para hablar sobre la seguridad de la IA, que fue el título de la conferencia hace un par de años. Estoy aquí para hablar sobre la oportunidad de la IA".

Vance también le dijo a Europa que Estados Unidos dominará la IA: empezando por los chips, luego el software y finalmente las reglas.

Parece que para EEUU Lawrence Lessing siempre tuvo razón al decir que “El Código es la Ley”.

Una lectura del discurso de Vance por parte de Miles Brundage, el que fuera responsable de AI Policy en OpenAI, da más pistas sobre algunas de las cuestiones planteadas por EEUU en esta cumbre: Safety Vs Security, la responsabilidad de las Big Tech en altos riesgos o el impacto laboral de la IA.

CHINA

China volvió al tablero de juego de alguna manera, con una mayor y más destacada representación a nivel político. También mostró más apertura al uso del código abierto.

En todo caso, cuestionó la utilidad de las declaraciones sobre seguridad y regulación de los anteriores años, llegando a decir que eran demasiado largas. :p

Sea como sea, más empresas chinas se adhirieron al compromiso relativo al desarrollo de las IA fundacionales de Seúl.

INDIA

La India, próximo anfitrión del siguiente AI Summit, se mostró especialmente receptiva a desarrollar IA de código abierto.

Modi pidió gobernanza y estándares, reclamando un esfuerzo global colectivo para crear directrices de gobernanza y establecer estándares para la inteligencia artificial en una cumbre celebrada en París. "Estamos en los albores de la era de la IA que cambiará el curso de la humanidad", dijo Modi en un discurso de clausura.

"Existe la necesidad de esfuerzos globales colectivos para establecer una gobernanza y estándares" sobre la IA, afirmó Modi. "La gobernanza no se trata sólo de gestionar riesgos y rivalidades. Se trata también de promover innovaciones", añadió, haciéndose eco de las posiciones de Francia y la Unión Europea.

CONCLUSIÓN

En general, los compromisos por la seguridad global y su monitorización de Londres y Seúl fueron diluidos en la declaración final, simplemente manteniendo un escueto “Tomamos nota de los compromisos voluntarios lanzados allí".

Se presenta una batalla por lo que OpenAI llamó “IA democrática” (EEUU y Europa, aunque Vance diga que no) Vs “IA autocrática” (China y Rusia, quizá India también).

Se mostró mucho interés por IA de código abierto, además desde polos bastante opuestos (Europa, China o India). EEUU sería todavía el más reacio, en general.

La cumbre culminó con la firma de una declaración no vinculante por parte de más de 100 países para una IA "inclusiva y sostenible", declaración que fue rechazada por el Reino Unido y los Estados Unidos. Se especula que UK no quiso firmarla ya que busca aproximarse a EEUU con este tipo de decisiones, aunque la respuesta oficial fueron preocupaciones sobre la seguridad nacional y la "gobernanza global".

Del análisis del New York Times, 5 notas de la gran IA Cumbre en París (los remordimientos de Europa en materia regulatoria, la pérdida de importancia de los agoreros de la IA, la letra pequeña de la política sobre IA de EEUU, el resurgir de startups basadas en modelos tipo DeepSeek o que nadie está anticipando que AGI pueda llegar mucho más pronto de lo que esperamos) se desprende un artículo que incluye un frase muy descriptiva de la impresión que generaron muchos políticos en esta materia: personas a caballo intentando instalar cinturones de seguridad en un Lamborghini que pasa a su lado. 😅

¿Próximo AI Summit? En la India.

¿Qué trae el resto de la newsletter? Más de 75 enlaces sobre regulación, tribunales, IP, protección de datos, guías o como Elon Musk cree que una IA demasiado pro-diversidad e igualdad podría acabar decidiendo que lo mejor es ejecutar a muchos de los hombres en el poder…

Already have an account? Sign in.

Subscribe to The Legal Letters: IA y Derecho

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe