Risky Business: “o3 Deep Research” o la 1ª IA de riesgo medio
Lo nuevo de OpenAI, o3 Deep Research (una IA para razonamiento profundo) es también el primer modelo de riesgo medio de la empresa 🤔

“o3 Deep Research” es lo último de OpenAI y llega con sorpresa legal interesante.
Presentado hace 1 semana, es un modelo de razonamiento que permite realizar investigaciones exhaustivas y generar informes detallados sobre temas específicos.
A diferencia de las capacidades de búsqueda estándar de por ejemplo GPT 4o, Deep Research puede navegar por la web de manera autónoma, recopilando, analizando y sintetizando información de múltiples fuentes (centenares) en un proceso que puede durar entre 5 y 30 minutos. Eso le permite producir informes completos y bien fundamentados, con citas precisas de las fuentes consultadas.
Basado en el modelo de razonamiento o3, Deep Research está diseñado para abordar tareas complejas que requieren múltiples pasos de razonamiento y una consolidación profunda de conocimientos. Su entrenamiento le permite interpretar y analizar texto, imágenes y archivos PDF, y se espera que próximamente pueda generar visualizaciones e incrustar imágenes en sus informes.
Las primeras pruebas son prometedoras, incluso radicales. También en materia legal. Aunque no es todavía perfecto, así que podemos estar tranquilos unos años más :p
En todo caso, Deep Research es también llamativo por ser el primer modelo de OpenAI, junto a o3-mini, categorizado como de “riesgo medio”. Es decir, un modelo que tiene mayor capacidad de automejora y aceleración de la investigación en IA. Eso implica que OpenAI haya aplicado medidas de seguridad extras.
Según OpenAI, un modelo de riesgo medio implicaría en ciberseguridad que el mismo aumenta la productividad de los operadores mediante un umbral de eficiencia (por ejemplo, >2 veces el tiempo ahorrado) en tareas clave de operaciones cibernéticas. Por ejemplo, convertir un exploit conocido en un ataque, explotación de caja negra, movimiento lateral dirigido a objetivos, identificación de información valiosa, permanecer sin ser detectado o reaccionar ante la defensa.
Un modelo de riesgo medio también supone una mejora en la categoría de “Persuasión”, lo que significa que el modelo puede crear contenido (potencialmente interactivo) con una eficacia persuasiva comparable al contenido típico escrito por humanos (por ejemplo, un artículo de opinión de una fuente de noticias acreditada o una conversación individualizada con una persona típica asignada al azar).
Ya es casualidad que justo la semana en la que entran en vigor los usos prohibidos de sistemas de IA de acuerdo al Reglamento europeo y que nos llegan las primeras directrices sobre los mismos, se lance casi a la vez un modelo que aumenta el nivel de riesgo.
Sea como sea, Deep Research solo está accesible en preview, en USA y en la versión ChatGPT Pro de 200 euros, por ahora (o3-mini y o3-mini-high ya están en Europa).
Según OpenAI hay todavía dos niveles por encima del Medio, serían el Alto y Crítico, así que todavía no hace falta ir llamando a John Connor. :p
¡Feliz semana!
Vamos con la actualidad de la semana (del 3 al 9 de febrero, con algún extra poco comentado de la semana anterior).
REGULACIÓN
Los servicios de IA en la nube se enfrentan a criterios mínimos de eficiencia energética en la UE: Los proveedores de servicios en la nube se enfrentan a criterios mínimos en la UE para la eficiencia energética de la inteligencia artificial en el marco de una próxima iniciativa legislativa planificada por la Comisión Europea, una "Ley de desarrollo de la nube y la IA de la UE", según un borrador de documento visto por MLex.
Esta semana tendrá lugar el Paris AI Action Summit: allí líderes de organizaciones internacionales, directores ejecutivos de pequeñas y grandes empresas, representantes de la academia, organizaciones no gubernamentales, artistas y miembros de la sociedad civil debatirán sobre el futuro de la IA y sus avances actuales, técnicos y regulatorios.
California AG emite avisos legales sobre la aplicación de la ley de California al uso de IA: el Fiscal General de California, Rob Bonta, ha emitido dos avisos legales sobre el uso de la IA, incluso en el contexto de la atención sanitaria. El primer aviso legal ("AI Advisory") asesora a los consumidores y entidades sobre sus derechos y obligaciones bajo las leyes estatales de protección al consumidor, derechos civiles, competencia y privacidad de datos con respecto al uso de IA, mientras que el segundo ("Aviso sobre IA para atención médica") brinda orientación específica a las entidades de atención médica sobre sus obligaciones según la ley de California con respecto al uso de IA.
La OCDE lanzó el marco de presentación de informes para monitorear la aplicación del Código Internacional de Conducta del Proceso de Hiroshima para organizaciones que desarrollan sistemas avanzados de IA: Este hito marca un avance significativo en la gobernanza internacional de la IA, reforzando el compromiso del G7 de garantizar el desarrollo, la implementación y el uso seguro y confiable de sistemas avanzados de IA.
La administración Trump están en las primeras etapas de considerar restricciones adicionales a las ventas de chips de inteligencia artificial de Nvidia a China: Las conversaciones para restringir los envíos de esos chips a China se encuentran en etapas muy tempranas entre los funcionarios de Trump, dijeron las personas, y agregaron que la idea ha estado bajo consideración desde la administración del expresidente demócrata Joe Biden.
Google impulsa una agenda global para educar a trabajadores y legisladores sobre IA: Google busca moldear la percepción pública y las políticas sobre inteligencia artificial antes de una ola global de regulación de la IA. Una prioridad clave, dijo un ejecutivo a Reuters, es la creación de programas educativos para capacitar a la fuerza laboral en IA. "Hacer que más personas y organizaciones, incluidos los gobiernos, se familiaricen con la IA y utilicen sus herramientas, mejora las políticas de IA y abre nuevas oportunidades; es un círculo virtuoso", dijo Kent Walker, presidente de asuntos globales de Alphabet.
La Asociación de Periódicos de Japón expresa sus opiniones sobre el "Plan de resumen intermedio" del Grupo de estudio del sistema de IA de la Conferencia sobre estrategia de IA: Considera que existe una necesidad urgente de un desarrollo legal efectivo en línea con la era de la generación de IA.
El Gobierno movilizará 150 millones más para integrar la IA en las empresas y lanza ALIA, un LLM en castellano: El Ejecutivo ya ha puesto en marcha el modelo de lenguaje de inteligencia artificial estatal, denominado ALIA y que está disponible en castellano y en los idiomas cooficiales del Estado, al tiempo que movilizará 150 millones de euros adicionales para integrar la IA en las empresas.
El organismo de control de la privacidad de Corea del Sur propone reformas legales para facilitar el uso de datos de IA: El regulador de privacidad de Corea del Sur está revisando reformas legales para facilitar el uso de datos para el desarrollo de la IA, con planes de refinar un término que ha actuado como una barrera al tiempo que introduce una nueva base legal que justificaría el desarrollo de servicios de IA que podrían beneficiar los intereses públicos. Se han realizado otros trabajos para reclasificar los datos biométricos y ampliar los métodos de transferencia de datos al extranjero, dijo a MLex Ko Hak-soo, presidente de la Comisión de Protección de Información Personal.
Google DeepMind y Meta presentaron sus “AI Frontier Framework”, donde describen sus consideraciones del riesgo en las decisiones de lanzamiento de modelos. Por ejemplo. maximizar los beneficios de los sistemas de IA más avanzados para la sociedad, incluido el fomento del tipo de innovación y competencia que impulsa la economía, al tiempo que protege contra los riesgos más graves, dijo Meta.
Un aliado de Elon Musk le dice al personal que "la IA primero" es el futuro de una agencia gubernamental clave: Las fuentes dicen que el ex ingeniero de Tesla, ahora a cargo de los Servicios de Transformación Tecnológica, quiere una agencia que opere como una "empresa de software de nueva creación".
Google levanta la prohibición del uso de su IA para armas y vigilancia: Google publicó principios en 2018 que prohíben que su tecnología de inteligencia artificial se utilice con fines sensibles. A semanas del segundo mandato del presidente Donald Trump, esas directrices están siendo revisadas.
Los senadores demócratas vuelven a presentar un proyecto de ley para detener la fijación algorítmica de precios: Un grupo de senadores demócratas ha reintroducido un proyecto de ley que impediría a las empresas utilizar software común y datos compartidos para fijar precios a través de algoritmos, una cuestión que ha sido objeto de crecientes litigios en el mercado de viviendas de alquiler y otros sectores.
El Partido Republicano de la FTC se centra en la 'fricción', la inteligencia artificial y la 'censura' en las fusiones: Los republicanos de la Comisión Federal de Comercio están comenzando a señalar sus políticas de la era Trump, incluido un enfoque más amigable hacia las fusiones con menos desafíos basados en "teorías débiles o sin fundamento fáctico", una actitud más no intervencionista en materia de inteligencia artificial y un fuerte énfasis en combatir la supuesta censura en línea de los conservadores.
Proyecto de ley de la Cámara tiene como objetivo prohibir DeepSeek en dispositivos gubernamentales: Un par de legisladores de la Cámara de Representantes de Estados Unidos presentaron el jueves una legislación bipartidista que prohibiría la instalación de la aplicación de chatbot de la empresa china DeepSeek en dispositivos emitidos por el gobierno, citando amenazas "alarmantes" a la seguridad nacional similares a las que han impulsado los esfuerzos para prohibir la aplicación de vídeo TikTok en todo el país. EEUU se uniría a Corea del Sur y Australia, cuyos gobiernos ya han prohibido su uso.

PROTECCIÓN DE DATOS
China niega solicitudes de datos en medio de restricciones globales al modelo de inteligencia artificial DeepSeek: China valora y protege legalmente la privacidad y seguridad de los datos y nunca ha exigido ni exigirá a empresas o individuos que recopilen o almacenen datos ilegalmente, dijo Guo Jiakun, portavoz del Ministerio de Asuntos Exteriores en conferencia de prensa. El comentario se produjo en respuesta a las consultas de los medios sobre prohibiciones, bloqueos o restricciones del modelo chino de IA generativa DeepSeek en Corea del Sur, Italia, Australia, Estados Unidos, India y Japón.
La Comisión de Protección de Información Personal (PIPC), de Corea del Sur, anunció una investigación sobre las prácticas de procesamiento de datos de DeepSeek: El PIPC solicitó información a DeepSeek con respecto a la recopilación y el procesamiento de datos, incluida la información personal, durante el desarrollo y prestación del servicio, así como su cumplimiento de la Ley de Protección de Información Personal.
Corea del Sur redefine la responsabilidad de la privacidad con Alipay como caso de prueba: En una audaz medida transfronteriza, el regulador de privacidad de Corea del Sur ordenó al gigante chino de tecnología financiera Alipay eliminar un modelo de evaluación de riesgo crediticio basado en datos no autorizados de 40 millones de usuarios de Kakao Pay. La decisión señala un cambio en la aplicación de la privacidad global, donde los reguladores ya no se centran únicamente en el mal manejo de datos personales, sino que ahora se están concentrando en sus productos derivados, incluidos los sofisticados sistemas de inteligencia artificial.
La base de datos expuesta de DeepSeek reveló mensajes de chat y datos internos: los investigadores de seguridad encontraron más de 1 millón de registros, incluidos datos de usuario y claves API, en una base de datos abierta.
El acuerdo propuesto por Clearview AI carece de un “beneficio significativo”, dicen los objetores al juez: los que se oponen a una propuesta de acuerdo sobre un litigio de privacidad en el que Clearview AI proporcionaría como acuerdo el 23 por ciento del valor de su IPO, pidieron a un juez federal en Chicago que rechazara el acuerdo porque no incluye “ninguna medida cautelar ni ningún pago monetario seguro”. "El acuerdo propuesto requiere que los miembros del grupo a nivel nacional brinden a los demandados una amplia exención de sus reclamos, lo que requiere que los miembros del grupo renuncien a algo de valor, pero no les proporciona ningún beneficio significativo a cambio", argumentaron los objetores Robert Weissman y Rick Claypool en una vista judicial.
El modelo de vídeo de OpenAI, Sora, no convence a los estudios de Hollywood: parece haber cierta desgana porque los estudios están preocupados por la privacidad de los datos y las reacciones sindicales.
El sesgo de la IA y los derechos de los ciudadanos son temas de las guías del CEPD para las autoridades: El Consejo Europeo de Protección de Datos ha publicado una guía sobre la evaluación de sesgos en la IA, así como una sobre la implementación de los derechos de los interesados. Estos recursos tienen como objetivo ayudar a las autoridades de protección de datos a abordar los desafíos relacionados con la IA. Proporcionan métodos y herramientas prácticos para evaluar el sesgo algorítmico y garantizar la protección de los derechos de las personas en el panorama de la IA.
PROPIEDAD INTELECTUAL e INDUSTRIAL
Meta AI utilizó una carga 'asombrosa' de obras pirateadas, dicen los escritores: Meta Platforms supuestamente descargó decenas de millones de obras pirateadas con derechos de autor de redes peer-to-peer para entrenar su producto de inteligencia artificial Llama, y sus empleados discutieron repetidamente esta estrategia "ilegal" con abogados, y un ingeniero escribió que hacerlo "desde una computadora portátil corporativa no se siente bien", según comunicaciones internas reveladas en un litigio por infracción de derechos de autor el miércoles.
La Sala de Recurso de la Oficina Europea de Patentes desestima el recurso de Stradvision, confirmando la desestimación de su patente para un modelo personalizado de aprendizaje profundo para vehículos autónomos: La Junta consideró que las solicitudes principales y auxiliares carecían de actividad inventiva con respecto al estado de la técnica.
OpenAI debe entregar el conjunto de datos GPT-4 en la lucha por la propiedad intelectual de los autores: Un juez federal de California ordenó a OpenAI Inc. producir un conjunto de datos utilizado para entrenar el modelo insignia GPT-4 de la compañía para asesorar a una clase propuesta de autores en su batalla de alto riesgo por infracción de derechos de autor, rechazando el argumento de OpenAI de que entregar el conjunto de datos plantea demasiados problemas de seguridad.
Los escritores de ABC News ratificaron un nuevo contrato sindical que brinda protección contra la IA generativa, incluido el requisito de un aviso de 3 semanas antes de implementar un sistema de inteligencia artificial que los escritores podrían utilizar.
No dejes que la IA 'estafe' a los artistas, advierte la estrella de los Beatles McCartney al gobierno del Reino Unido: El músico de los Beatles Paul McCartney advirtió que la inteligencia artificial podría usarse para "estafar" a los artistas, instando al gobierno británico a asegurarse de que las próximas reformas de derechos de autor protejan sus industrias creativas.
38 organizaciones internacionales que representan a todos los sectores creativos y culturales hacen un llamamiento para construir un futuro que concilie el desarrollo de la IA con el respeto a los derechos de autor y derechos afines: reafirmar principios clave relacionados con la IA y la propiedad intelectual es la finalidad. La Cumbre de IA de París tiene como objetivo promover una IA confiable, sostenible y responsable. Por primera vez a este nivel se debate la propiedad intelectual.
La policía japonesa arresta a dos personas por vender carteles de Evangelion "obscenos" generados por IA: Dos hombres en Japón han sido acusados de violar la Ley de Derechos de Autor de Japón al crear y vender ilegalmente carteles "obscenos" generados por IA de personajes femeninos de animes populares como Evangelion y Yu-Gi-Oh.
OpenAI enfrenta un nuevo caso de derechos de autor de editores de libros globales en la India: Los editores de libros indios y sus homólogos internacionales han presentado una demanda por derechos de autor contra OpenAI en Nueva Delhi, el último de una serie de casos globales que buscan impedir que el chatbot ChatGPT acceda a contenido propietario.
Boston Dynamics llega a un acuerdo sobre la demanda por propiedad intelectual de robots con su rival: Boston Dynamics Inc. alcanzó un acuerdo para poner fin a una demanda por infracción de patente que inició contra su competidor Ghost Robotics Corp. en un tribunal federal de Delaware por tecnología de inteligencia artificial probada por la Fuerza Aérea de EE. UU.
Anthropic se protegerá contra la infracción de letras durante la demanda: La empresa de inteligencia artificial Anthropic aceptó una orden judicial parcial mientras lucha contra las demandas por infracción de derechos de autor de los editores de música en un tribunal federal de California, prometiendo mantener barreras de seguridad que impidan que su chatbot Claude reproduzca letras protegidas.

TRIBUNALES y RESOLUCIONES
La IA no puede ser reconocida como inventora en casos de patentes, dice un tribunal japonés: El Tribunal Superior de Propiedad Intelectual confirmó una decisión del Tribunal de Distrito de Tokio de mayo de 2024 que desestima una apelación de los desarrolladores de IA que buscaban hacer posible que la inteligencia artificial (IA) fuera reconocida como inventora en casos de patentes. El juez presidente Hibiki Shimizu concluyó que los inventores deben ser humanos. La demanda se centró en el AI DABUS autónomo, desarrollado por el científico estadounidense Stephen Thaler. Los desarrolladores habían solicitado patentes para dos invenciones en agosto de 2020, nombrando a DABUS como inventor, pero fueron rechazadas, lo que provocó la demanda.
Sam Altman califica de "falsa" la afirmación de Musk de prohibir a sus rivales: El director ejecutivo de OpenAI, Sam Altman, dijo que la afirmación clave hecha en una solicitud de orden judicial preliminar de Elon Musk en su disputa de inversión en curso es falsa, y dijo en una nueva declaración que nunca les dijo a los inversores de OpenAI que no podrían invertir en la empresa si también invirtieran en xAI de Musk.
Tesla, Musk y Warner Bros. piden desechar el demanda por de IA de 'Blade Runner': Tesla, su director ejecutivo, Elon Musk, y Warner Bros. Discovery pidieron el martes a un juez federal de California que desestime la demanda de Alcon Entertainment que alega que la compañía de vehículos eléctricos utilizó una imagen creada por inteligencia artificial que infringe "Blade Runner 2049" para promover un taxi autónomo, diciendo que una "escena post-apocalíptica familiar" no se puede proteger.
El juez de OpenAI critica la oferta 'amplia' de Musk para bloquear las empresas con fines de lucro: Una jueza federal de California indicó que probablemente negará el intento de Elon Musk de bloquear preliminarmente a OpenAI Inc. para que no se convierta en una empresa con fines de lucro, criticó las presentaciones de Musk por ser vagas y amplias y dijo que desestimará algunas afirmaciones, al tiempo que agregó que "algo va a ir a juicio en este caso".
Un miembro de LinkedIn rechaza las afirmaciones sobre el uso de datos para entrenar la IA: Un suscriptor de LinkedIn abandonó su propuesta de demanda colectiva presentada recientemente acusando a la compañía de compartir ilegalmente el contenido confidencial de los mensajes privados de los usuarios pagos con terceros para entrenar modelos de inteligencia artificial generativa, una práctica que la compañía afirmó que "nunca hizo".
Los productos OpenAI no están diseñados para evadir los muros de pago: Los abogados de OpenAI y Microsoft pasaron la mañana del martes tratando de convencer a un juez federal de Nueva York para que reduzca los casos de infracción de derechos de autor de las organizaciones de noticias en su contra, diciendo que los modelos de lenguaje grandes no están diseñados para escupir artículos completos para que los lectores puedan evitar los muros de pago.
Experto en IA de Stanford investigado por un informe erróneo generado por IA: Un juez federal de Minnesota desestimó el viernes una declaración experta errónea preparada por un experto en inteligencia artificial de la Universidad de Stanford en un litigio sobre la ley estatal sobre deepfakes y encontró que las fuentes falsas generadas por IA en su declaración "destrozan su credibilidad ante este tribunal".
Microsoft presiona para frustrar un 'plan' para eludir la seguridad de la IA: Un juez federal de Virginia autorizó a Microsoft Corp. a confiscar un sitio web que, según el gigante tecnológico, ha sido fundamental para un "esquema sofisticado" de ciberdelincuentes extranjeros para eludir las barreras de seguridad integradas en los servicios de inteligencia artificial con el fin de crear contenido ofensivo y dañino. , según documentos judiciales hechos públicos el viernes.
El juez critica las solicitudes de confidencialidad de IA 'extremadamente amplias' de Meta: Un juez federal de California pareció dispuesto a permitir que los autores modifiquen su propuesta de demanda colectiva por infracción de derechos de autor para incluir acusaciones de que Meta eliminó nefastamente las exenciones de responsabilidad de derechos de autor de decenas de millones de libros al crear su producto de inteligencia artificial Llama, al tiempo que criticaba las solicitudes de confidencialidad "extremadamente amplias" de Meta como intentos ilegítimos de evitar mala publicidad.
Los etiquetadores de datos presentaron una demanda colectiva contra Scale AI: alegando que sufrieron daño emocional por su trabajo para el cual Scale no los preparó.
La FTC multa a AI Software Co. con 1 millón de dólares por afirmaciones de accesibilidad web: El fabricante de software accessiBe pagará a la Comisión Federal de Comercio $1 millón para resolver las acusaciones de la agencia de que la compañía tergiversó cómo su herramienta impulsada por inteligencia artificial podría hacer que los sitios web cumplieran con las pautas internacionales para la accesibilidad para discapacitados, anunció la FTC.
Perplexity AI se ve afectada por el caso TM de Software Co.: Perplexity AI Inc. se enfrenta a una demanda por infracción de marca registrada en un tribunal federal de California por parte de una empresa de software que argumenta que el motor de búsqueda impulsado por inteligencia artificial "cree que tiene derecho a pisotear los derechos de un proverbial 'pequeño' sin consecuencias".
La FTC eleva el caso del chatbot Snap AI al Departamento de Justicia: La Comisión Federal de Comercio tomó la rara medida de revelar su remisión al Departamento de Justicia de EE. UU. de su queja alegando que Snap Inc. implementó un chatbot impulsado por inteligencia artificial que perjudicó a los usuarios jóvenes, lo que llevó al presidente republicano entrante, Andrew Ferguson, a criticar las acusaciones como una "afrenta a la Constitución y al Estado de derecho".
La SEC dice que Restaurant Tech Co. engañó a los inversores sobre el producto de IA: La Comisión de Bolsa y Valores de EE. UU. llegó a un acuerdo no monetario con Presto Automation Inc. para resolver las acusaciones de que la compañía de tecnología para restaurantes hizo declaraciones falsas y engañosas sobre aspectos de su producto de inteligencia artificial, que utiliza tecnología de reconocimiento de voz asistida por IA para automatizar aspectos del manejo a través de toma de pedidos en restaurantes de servicio rápido.
GUÍAS, MANUALES y PAPERS
La Comisión Europea publicó las Directrices sobre prácticas prohibidas de inteligencia artificial tal como se definen en la Ley de IA: Las directrices están diseñadas para garantizar la aplicación coherente, efectiva y uniforme de la Ley de IA en toda la Unión Europea. Si bien ofrecen información valiosa sobre la interpretación de las prohibiciones por parte de la Comisión, no son vinculantes, con interpretaciones autorizadas reservadas al Tribunal de Justicia de la Unión Europea.
La Comisión Europea también publicó el repositorio vivo para fomentar el aprendizaje y el intercambio sobre la alfabetización en materia de IA: en virtud de las obligaciones de la Ley de IA, la lista de prácticas no es exhaustiva y se actualizará periódicamente con otras prácticas. Las prácticas publicadas hasta la fecha se dividen alfabéticamente en función de sus diferentes niveles de aplicación (plenamente aplicadas, parcialmente implantadas, planificadas).
Los reguladores de IA del Reino Unido necesitan recursos y claridad gubernamental, según un informe de los legisladores: El crecimiento en el sector de la IA del Reino Unido podría mejorarse si los reguladores digitales existentes contaran con todos los recursos necesarios para comprender y ayudar en sus competencias, y si el gobierno aclarara sus objetivos para su Oficina de Innovación Regulatoria, según un informe sobre las barreras para la ampliación de la IA, publicado esta semana. El informe, elaborado por el Comité Digital y de Comunicaciones de la Cámara de los Lores, también pide al gobierno que garantice que la futura regulación de la IA no cause más incertidumbre.
El TC260 de China emite un borrador de directrices para la identificación de metadatos de contenido de IA: El organismo de establecimiento de estándares de ciberseguridad de China, TC260, ha presentado un borrador de directrices para proporcionar reglas de codificación para proveedores de servicios de inteligencia artificial sintética y generativa y proveedores de servicios de distribución de contenido, guiándolos en la realización de identificación implícita de metadatos para contenido sintético generado por IA. Las directrices propusieron la estructura de codificación y las reglas de codificación para estos proveedores de servicios. La consulta pública sobre las directrices está abierta hasta el 5 de febrero. El TC260 también publicó un borrador de estándares de seguridad de IA.
Corea del Sur publica la primera directriz sobre dispositivos médicos con IA generativa del mundo: El Ministerio de Seguridad de Alimentos y Medicamentos de Corea del Sur publicó la primera directriz del mundo sobre la revisión y aprobación de dispositivos médicos generativos basados en inteligencia artificial, para ayudar a establecer estándares sobre las aplicaciones de la tecnología en el campo médico.
Cuidado con la pereza metacognitiva: efectos de la inteligencia artificial generativa en la motivación, los procesos y el rendimiento del aprendizaje: Nueva investigación encontró que en ausencia de diferencias en la motivación, los estudiantes con diferentes apoyos aún exhibían diferentes procesos de aprendizaje autorregulados, lo que en última instancia conduce a un desempeño diferenciado. Lo que es particularmente digno de mención es que las tecnologías de inteligencia artificial como ChatGPT pueden promover la dependencia de los estudiantes de la tecnología y potencialmente desencadenar una "pereza metacognitiva".
Cuanto menos saben las personas sobre la IA, más les gusta: La rápida difusión de la inteligencia artificial hace que la gente se pregunte: ¿quién es más probable que adopte la IA en su vida diaria? Muchos suponen que son los expertos en tecnología (aquellos que entienden cómo funciona la IA) los que están más ansiosos por adoptarla. Sorprendentemente, una nueva investigación encuentra lo contrario. Las personas con menos conocimientos sobre IA en realidad están más abiertas a utilizar la tecnología. A esta diferencia en la propensión a la adopción la llaman vínculo "menor alfabetismo-mayor receptividad".
Las normas financieras actuales podrían ser contraproducentes frente a la IA, dice un grupo del Reino Unido: Los marcos regulatorios existentes podrían resultar ineficaces o incluso contraproducentes frente a la transformación impulsada por la IA, según un informe del Foro Oficial de Instituciones Monetarias y Financieras. Estos riesgos podrían surgir del uso de la IA dentro del sistema financiero o de cómo las instituciones y los mercados responden al uso de la IA en otros lugares. El informe también concluye que los propios reguladores no están bien preparados para comprender las tecnologías.
Nueva Jersey dice que la ley antidiscriminación existente se aplica al uso de IA: El fiscal general de Nueva Jersey emitió una guía que aclara que la ley de discriminación del estado se aplica a la "discriminación algorítmica", o discriminación y acoso basado en prejuicios que surge del uso de inteligencia artificial y otras tecnologías similares.
El informe de la FTC sobre el sector de la IA ilumina la futura aplicación de la ley: El informe de la Comisión Federal de Comercio sobre los proveedores de servicios en la nube y sus asociaciones con desarrolladores de grandes modelos de lenguaje de inteligencia artificial sugiere que la agencia tomará medidas para controlar a las Big Tech con medidas antimonopolio para proteger a las nuevas empresas, dicen los abogados de Squire Patton.

LEGALTECH
DOGE de Elon Musk está trabajando en un chatbot personalizado llamado GSAI: El chatbot es parte de las ambiciones de Elon Musk y el presidente Donald Trump de utilizar la inteligencia artificial y otras tecnologías para reducir costos y modernizar el gobierno de Estados Unidos.
Los chatbots de IA transformarán las becas jurídicas, dice AI Chatbot: La inteligencia artificial generativa, como el software ChatGPT de OpenAI, redefinirá los estudios jurídicos, según un nuevo artículo producido principalmente por el propio chatbot.
Creada la primera IA que transforma la información legislativa en inteligencia estratégica para empresas: AI Legislab permite encontrar todas las claves necesarias para diseñar con mayor grado de fiabilidad y eficiencia, los planes de incidencia y lobbying sobre un asunto en concreto: desde el tiempo medio de tramitación, los grupos parlamentarios y diputados más activos, la tasa histórica de aprobación y finalización de iniciativas similares y otras muchas funcionalidades.
El director ejecutivo de Goldman Sachs, David Solomon, cree que la IA ahora puede redactar el 95% de los documentos necesarios para que una empresa salga a bolsa: Según Solomon, la IA puede hacer en minutos lo que a un equipo de seis personas le habría llevado dos semanas completar.
La mayoría de los abogados no utilizan la IA para abordar las crecientes cargas de trabajo, según un nuevo informe: un nuevo estudio ha descubierto que la mayoría de los profesionales del derecho aún no utilizan la inteligencia artificial para abordar los crecientes desafíos de la carga de trabajo. El informe encontró que el 48% de los encuestados calificaron el abrumador volumen de trabajo como su desafío más importante. Si bien el 46% de los encuestados estuvo de acuerdo en que la IA dará forma al futuro de la industria legal, solo el 32% de las firmas de abogados y el 20% de los equipos legales internos dijeron que están implementando o planean implementar IA en su trabajo.
¿Su seguro de responsabilidad profesional cubre los errores de IA? No estés tan seguro: Los abogados han adoptado la inteligencia artificial generativa a un ritmo rápido. Pero también puede ser poco fiable y con frecuencia se le menosprecia por sus alucinaciones, prejuicios y respuestas incompletas.
LexisNexis lanza un nuevo programa de inteligencia artificial para bufetes de abogados: LexisNexis anunció oficialmente la disponibilidad comercial de su asistente de inteligencia artificial personalizado Protégé en los mercados estadounidenses. Diseñado para bufetes de abogados, facultades de derecho, corporaciones y agencias gubernamentales, reemplazará al Lexis+ AI existente y al asistente Lexis Create+ AI.
El 17% de las grandes empresas utilizan ahora herramientas de revisión de contratos de IA: Los nuevos datos de una encuesta de LegalOn han demostrado que el 17% de las grandes empresas utilizan actualmente software de revisión de contratos con IA, y un 21% adicional evalúa esta tecnología que ahorra tiempo. Esto es importante porque impulsa la eficiencia interna y también puede ayudar a cambiar las expectativas de manera más amplia sobre cómo deben manejarse los contratos, tanto internamente como por parte de los asesores externos de esas empresas.
OTROS
Así es como funciona realmente la censura de DeepSeek y cómo sortearla: Si bien la empresa parece tener ventaja sobre sus rivales estadounidenses en términos de matemáticas y razonamiento, también censura agresivamente sus propias respuestas.
Los resultados del nuevo modelo de OpenAI, o3, generan escepticismo ya que OpenAI había financiado el desarrollo de la prueba: Cuando OpenAI presentó o3, su último modelo de razonamiento, una de las formas en que la compañía demostró su fortaleza fue mostrando su puntuación del 25,2% en FrontierMath, una prueba de las habilidades matemáticas de los modelos de IA que desarrolló Epoch AI. Los problemas en FrontierMath son extremadamente difíciles. De hecho, antes del anuncio de O3, las puntuaciones máximas estaban por debajo del 2%. Por tanto, la mejora era muy grande. Pero salió a la luz que OpenAI había financiado el desarrollo de la prueba y tenía acceso a los problemas y sus soluciones, generando escepticismo sobre la puntuación de o3, junto con la frustración de los observadores de IA.
El director del Instituto de Seguridad de IA de EE. UU. deja su cargo: La directora inaugural del Instituto de Seguridad de IA de EE. UU., Elizabeth Kelly, dejará su cargo, una medida que deja abierta la dirección del naciente organismo gubernamental bajo el presidente Donald Trump. Nombrado para el puesto hace un año, Kelly supervisó el trabajo inicial del instituto para medir y contrarrestar los riesgos de los sistemas de inteligencia artificial cada vez más potentes.
Nvidia, MiniMax de China y 01.ai prometen compromisos de seguridad de IA antes de la cumbre: Nvidia, Magic AI y las empresas chinas MiniMax y 01.ai se unen a los principales desarrolladores de inteligencia artificial de EE. UU., como Google, OpenAI y Microsoft, al firmar compromisos para el desarrollo y la implementación responsable de la IA acordados en una cumbre celebrada en Seúl en mayo pasado. Las incorporaciones suponen un aumento significativo en el número de empresas chinas representadas, justo antes de una cumbre de seguimiento en París la próxima semana. Nvidia, Magic AI y las empresas chinas MiniMax y 01.ai son".
Los piratas informáticos extranjeros están utilizando Gemini de Google en ataques a EE. UU.: Según un informe de The Wall Street Journal, grupos de hackers con vínculos conocidos con China, Irán, Rusia y Corea del Norte están aprovechando chatbots de IA como Google Gemini para ayudar con tareas como escribir código malicioso e investigar posibles objetivos de ataque. Si bien los funcionarios occidentales y los expertos en seguridad han advertido durante mucho tiempo sobre el potencial de uso malicioso de la IA, el Journal, citando un informe del miércoles de Google, señaló que docenas de grupos de hackers en más de 20 países están utilizando principalmente la plataforma como una herramienta de investigación y productividad, centrándose en la eficiencia en lugar de desarrollar técnicas de hacking sofisticadas y novedosas.
Google, OpenAI y otros se comprometen a compartir datos comparables sobre el desarrollo de la IA con el G7: Microsoft, Google, OpenAI y Amazon se encuentran entre los desarrolladores de IA de vanguardia que hoy se comprometieron a enviar información comparable y accesible públicamente sobre sus prácticas de gestión de riesgos al primer repositorio centralizado. El nuevo panel en línea, alojado por la OCDE, permite a los desarrolladores compartir sus esfuerzos para cumplir con el código de práctica derivado del Proceso de IA de Hiroshima del Grupo de los Siete. Los desarrolladores de Frontier AI, incluidos Amazon, Anthropic, OpenAI y Google, se han comprometido a enviar información sobre su gestión de riesgos.
Las barreras de seguridad de DeepSeek fallaron en todas las pruebas que los investigadores realizaron a su chatbot de inteligencia artificial: Los investigadores de seguridad probaron 50 jailbreaks conocidos contra el nuevo y popular chatbot de IA de DeepSeek. No detuvo a ninguno, investigadores de seguridad de Cisco y la Universidad de Pensilvania han publicado los resultados. Cuando se probó con 50 mensajes maliciosos diseñados para provocar contenido tóxico, el modelo de DeepSeek no detectó ni bloqueó ninguno. En otras palabras, los investigadores dicen que se sorprendieron al lograr una "tasa de éxito del ataque del 100 por ciento".
La Marina de los EE. UU. advirtió a sus miembros contra el uso de los modelos de inteligencia artificial de DeepSeek: La Marina de los EE. UU. emitió una advertencia a sus miembros para que evitaran el uso de DeepSeek "en cualquier capacidad", debido a "posibles preocupaciones éticas y de seguridad". El correo electrónico instruía a todos los miembros del equipo a no utilizar DeepSeek "para ninguna tarea relacionada con el trabajo o para uso personal".
OpenAI anuncia ChatGPT para agencias gubernamentales: OpenAI anunció una nueva versión de su chatbot ChatGPT, llamada ChatGPT Gov, dirigida a agencias gubernamentales, según un publicación de blog. Las agencias gubernamentales podrán utilizar ChatGPT Gov de forma más segura en sus propias nubes privadas de Azure, según la publicación.
Lanzamiento del Centro para la Seguridad de la IA: el llamado “Último examen de la humanidad”, es un punto de referencia en cuanto a difíciles problemas de investigación a resolver. El R1 de DeepSeek encabeza la clasificación, superando al o1 de OpenAI.
Startup Perplexity ofrece búsqueda con IA DeepSeek sin censura: La startup de búsqueda de IA Perplexity comenzó a ofrecer acceso al modelo chino de IA DeepSeek R1 y ha eliminado sus funciones de moderación de contenido. Esto significa que los usuarios de Perplexity pueden obtener respuestas sobre temas como las protestas de la Plaza de Tiananmen de 1989, que el modelo original de DeepSeek no abordará debido a la censura del gobierno chino.
Los estafadores están creando videos de noticias falsas para chantajear a las víctimas: Los estafadores de “Yahoo Boy” se están haciendo pasar por CNN y otras organizaciones de noticias para crear videos que presionan a las víctimas para que realicen pagos de chantaje.
Magnates italianos atacados por un falso ministro de Defensa en una supuesta estafa de IA: La élite empresarial italiana se ha visto perturbada por una estafa que utilizó una voz generada por inteligencia artificial que imitaba al ministro de defensa italiano, Guido Crosetto, para pedir a magnates que transfirieran millones a cuentas bancarias en el extranjero para ayudar a pagar rescates para liberar a periodistas italianos secuestrados en el extranjero.
¡Volvemos el próximo lunes! 😄