OpenAI, Google y Anthropic se unen para frenar la copia de sus modelos de IA en China

Las empresas están compartiendo información a través del Frontier Model Forum para detectar los llamados intentos de destilación adversaria que violan sus condiciones de servicio, según personas familiarizadas con el asunto.

Por

Bloomberg — Los rivales OpenAI, Anthropic PBC y Google, de Alphabet Inc. (GOOGL), han comenzado a colaborar para intentar frenar a los competidores chinos que extraen resultados de modelos de inteligencia artificial estadounidenses de vanguardia para obtener ventaja en la carrera global de la IA.

Las empresas están compartiendo información a través del Frontier Model Forum, una organización sin ánimo de lucro del sector que las tres compañías tecnológicas fundaron con Microsoft Corp. (MSFT) en 2023, para detectar los llamados intentos de destilación adversaria que violan sus condiciones de servicio, según personas familiarizadas con el asunto.

Ver más: OpenAI plantea crear un fondo de riqueza y explorar la semana laboral de cuatro días por la IA

La inusual colaboración subraya la gravedad de una preocupación planteada por las empresas estadounidenses de IA de que algunos usuarios, especialmente en China, están creando versiones de imitación de sus productos que podrían rebajarles el precio y desviarles clientes, al tiempo que suponen un riesgo para la seguridad nacional. Las autoridades estadounidenses han calculado que la destilación no autorizada cuesta a los laboratorios de Silicon Valley miles de millones de dólares en beneficios anuales, según una persona familiarizada con los hallazgos que los describió bajo condición de anonimato.

OpenAI confirmó que forma parte del esfuerzo de intercambio de información sobre la destilación adversarial a través del Frontier Model Forum y señaló un reciente memorándum que envió al Congreso sobre esta práctica, en el que acusaba a la empresa china DeepSeek de intentar “aprovecharse gratuitamente de las capacidades desarrolladas por OpenAI y otros laboratorios fronterizos estadounidenses”. Google, Anthropic y el Frontier Model Forum declinaron hacer comentarios.

La destilación es una técnica en la que un modelo de IA “maestro” más antiguo se utiliza para entrenar a un modelo más nuevo, “alumno”, que reproduce las capacidades del sistema anterior, a menudo a un costo mucho menor que producir un modelo original desde cero. Algunas formas de destilación son ampliamente aceptadas e incluso fomentadas por los laboratorios de IA, como cuando las empresas crean versiones más pequeñas y eficientes de sus propios modelos, o permiten que desarrolladores externos utilicen la destilación para construir tecnologías no competitivas.

Sin embargo, la destilación ha sido controvertida cuando la utilizan terceros -especialmente en naciones adversarias como China o Rusia- para replicar trabajos patentados sin autorización. Los principales laboratorios estadounidenses de IA han advertido de que los adversarios extranjeros podrían utilizar la técnica para desarrollar modelos de IA desprovistos de barreras de seguridad, como los límites que impedirían a los usuarios crear un patógeno mortal.

Ver más: Anthropic gana orden judicial que bloquea prohibición de Trump sobre uso gubernamental de su IA

La mayoría de los modelos creados por los laboratorios chinos son de peso abierto, lo que significa que partes del sistema de IA subyacente están a disposición del público para que los usuarios puedan descargarlos libremente y ejecutarlos en sus propias plataformas, y por tanto su uso es más barato. Eso supone un reto económico para las empresas estadounidenses de IA que han mantenido sus modelos en propiedad, apostando a que los clientes pagarán por el acceso a sus productos y ayudarán a compensar los cientos de miles de millones de dólares que han gastado en centros de datos y otras infraestructuras.

La destilación atrajo por primera vez un escrutinio significativo en enero de 2025, en las semanas posteriores a la publicación por sorpresa por parte de DeepSeek del modelo de razonamiento R1 que tomó por asalto el mundo de la IA. Poco después, Microsoft y OpenAI investigaron si la startup china había exfiltrado indebidamente grandes cantidades de datos de los modelos de la empresa estadounidense para crear el R1, según informó anteriormente Bloomberg.

En febrero, OpenAI advirtió a los legisladores estadounidenses de que DeepSeek había seguido utilizando tácticas cada vez más sofisticadas para extraer resultados de los modelos estadounidenses, a pesar de los mayores esfuerzos por evitar el uso indebido de sus productos. OpenAI afirmó en su memorándum al Comité Selecto de la Cámara de Representantes sobre China que DeepSeek se estaba basando en la destilación para desarrollar una nueva versión de su revolucionario chatbot.

El intercambio de información por parte de las empresas estadounidenses de IA sobre la destilación adversaria se hace eco de una práctica habitual en la industria de la ciberseguridad, donde las empresas intercambian regularmente datos sobre ataques y tácticas de los adversarios como forma de reforzar las defensas de la red. Al trabajar juntas, las firmas de IA buscan de forma similar detectar más eficazmente la práctica, identificar a los responsables e intentar evitar que los usuarios no autorizados tengan éxito.

Ver más: Google se acerca a la búsqueda “perfecta” con ayuda de la IA y cambios en la publicidad

Los funcionarios de la administración Trump han señalado su apertura a fomentar el intercambio de información entre las empresas de IA para frenar la destilación adversarial. El Plan de Acción sobre IA presentado por el presidente Donald Trump el año pasado pedía la creación de un centro de análisis e intercambio de información, en parte con este fin.

Por ahora, el intercambio de información sobre la destilación sigue siendo limitado debido a la incertidumbre de las empresas de IA sobre lo que se puede compartir en virtud de las directrices antimonopolio existentes para contrarrestar la amenaza competitiva de China, según personas familiarizadas con el asunto. Las empresas se beneficiarían de una mayor claridad por parte del gobierno estadounidense, dijeron las personas.

La destilación se ha situado como una de las principales preocupaciones entre los desarrolladores de IA estadounidenses desde que DeepSeek sacudió los mercados mundiales a principios de 2025 con su lanzamiento R1. Los modelos de código abierto altamente capaces siguen proliferando en China, y muchos en la industria están muy atentos a una actualización importante del modelo de DeepSeek.

El año pasado, Anthropic bloqueó el uso de su modelo de chatbot Claude por parte de empresas controladas por chinos, y en febrero identificó a tres laboratorios chinos de IA - DeepSeek, Moonshot y MiniMax - que extraían ilícitamente la capacidad del modelo mediante destilación. Este año, Anthropic afirmó que la amenaza “va más allá de cualquier empresa o región” y supone un riesgo para la seguridad nacional, ya que los modelos destilados suelen carecer de barreras de seguridad diseñadas para evitar que los malos actores utilicen las herramientas de IA para actividades maliciosas.

Google ha publicado un blog en el que afirma haber identificado un aumento de los intentos de extracción de modelos. Los tres laboratorios de IA estadounidenses aún no han aportado pruebas que demuestren en qué medida la innovación de modelos en China depende de la destilación, pero señalan que la prevalencia de los ataques puede medirse en función de los volúmenes de solicitudes de datos a gran escala.

Lea más en Bloomberg.com