2 min de lectura

OpenAI, Anthropic y Google se unen por primera vez para combatir el robo de modelos por China

En una alianza histórica, los tres gigantes de IA están compartiendo datos de ataques a través del Frontier Model Forum. Laboratorios chinos generaron 16 millones de intercambios fraudulentos para copiar modelos estadounidenses.

La noticia

Por primera vez en la historia, OpenAI, Anthropic y Google están trabajando juntos.

La razón: combatir a competidores chinos que están extrayendo resultados de modelos de IA estadounidenses para ganar ventaja en la carrera global de inteligencia artificial.

Cómo funciona el robo

La técnica se llama destilación de modelos. Funciona así:

  1. Un laboratorio chino hace millones de consultas a ChatGPT, Claude o Gemini
  2. Captura las respuestas de alta calidad
  3. Usa esas respuestas para entrenar su propio modelo más barato
  4. El resultado: un modelo que imita al original sin el costo de desarrollo

Según reportes, laboratorios chinos generaron 16 millones de intercambios fraudulentos usando esta técnica.

La respuesta: Frontier Model Forum

Las tres empresas están compartiendo información de ataques a través del Frontier Model Forum, una organización que crearon para temas de seguridad de IA.

Están compartiendo:

  • Patrones de ataques detectados
  • IPs y comportamientos sospechosos
  • Técnicas de evasión que usan los atacantes

Es la primera vez que colaboran a este nivel en defensa.

Por qué esto importa

El modelo de negocio de la IA depende de que entrenar modelos sea caro. Si cualquiera puede copiar los resultados con un ataque masivo, el incentivo a innovar desaparece.

OpenAI gastó miles de millones entrenando GPT-5. Anthropic invirtió similar en Claude. Si un competidor puede replicar el 80% de esa capacidad por una fracción del costo, el modelo económico se rompe.

El contexto geopolítico

Esta alianza ocurre mientras:

  • DeepSeek de China sigue ganando tracción global
  • Huawei lanza chips que compiten con Nvidia
  • El gobierno de EE.UU. impone más restricciones de exportación

La guerra fría de la IA está escalando, y ahora los competidores se están convirtiendo en aliados temporales.

La pregunta abierta

¿Es posible realmente proteger un modelo de IA cuando su interfaz es pública?

Cada consulta a ChatGPT o Claude es una ventana a cómo piensa el modelo. Bloquear completamente la destilación requeriría limitar drásticamente el acceso — algo que iría contra el modelo de negocio de estos servicios.

Por ahora, la alianza apuesta a la detección y bloqueo de ataques masivos. Pero la batalla está lejos de terminar.


Fuentes: Bloomberg, NewsBytes

Avatar de Jorge Razo
Jorge Razo Director @ KÖD