2 min de lectura

El Pentágono amenaza a Anthropic: 'Colabora o perdemos todos'

El Departamento de Defensa de EE.UU. presiona a Anthropic para que abandone compromisos de seguridad. La empresa cede ante un contrato de $200M.

“All your bots are belong to US”

El título del artículo de The Register lo dice todo. El Departamento de Defensa de Estados Unidos ha presionado a Anthropic para que abandone compromisos clave de seguridad, con un mensaje claro: colabora o enfrenta las consecuencias.

¿Qué está en juego?

Un contrato de aproximadamente $200 millones de dólares para integrar Claude en sistemas del Pentágono. Pero el Departamento de Defensa quería más que solo acceso al modelo.

Las demandas del Pentágono:

  • Acceso sin restricciones a capacidades del modelo
  • Eliminación de ciertos “guardrails” de seguridad
  • Prioridad sobre clientes comerciales
  • Entrenamiento específico para aplicaciones militares

Anthropic cede

Según reportes, Anthropic ha abandonado compromisos clave de seguridad que había prometido públicamente. Esto incluye:

“Políticas que anteriormente prohibían el uso de Claude en aplicaciones que pudieran causar daño directo”

La empresa, que se fundó explícitamente con una misión de seguridad en IA, ahora está en una posición difícil.

El dilema de Silicon Valley

Anthropic no es la primera empresa de IA en enfrentar esta presión:

EmpresaAñoConflicto
Google2018Project Maven (drones militares)
Microsoft2019Contrato con ICE
Amazon2020Reconocimiento facial para policía

La diferencia: Anthropic se posicionó específicamente como la alternativa “ética”.

Las implicaciones

Para la industria:

  • El gobierno de EE.UU. tiene poder real sobre las empresas de IA
  • Los compromisos de seguridad son negociables bajo presión
  • El dinero militar es demasiado grande para ignorar

Para los usuarios:

  • ¿Puedes confiar en los “valores” de una empresa de IA?
  • ¿Qué otros compromisos se han abandonado en silencio?

La perspectiva mexicana

Este caso debería hacer reflexionar a empresas mexicanas que dependen de proveedores estadounidenses de IA:

  1. Soberanía de datos — ¿Dónde está tu información?
  2. Dependencia tecnológica — ¿Qué pasa si las prioridades cambian?
  3. Alternativas locales — ¿Existen opciones?

El mensaje final

Si Anthropic —la empresa que se vendió como la alternativa segura— puede ceder ante presión gubernamental, cualquier empresa puede hacerlo.

La seguridad en IA no es solo una característica técnica. Es una decisión política y económica que puede cambiar cuando el precio es correcto.


En KÖD nos tomamos la seguridad en serio. Si necesitas asesoría sobre implementación responsable de IA, contáctanos.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD