3 min de lectura

Juez Federal Bloquea al Pentágono: No Puede Etiquetar a Anthropic Como 'Riesgo de Seguridad'

Una jueza federal emitió una orden temporal que impide al Departamento de Defensa mantener a Anthropic en su lista negra, dando un respiro a la empresa de IA en su batalla legal con el gobierno Trump.

Una jueza federal en San Francisco emitió el jueves una orden temporal que impide al Departamento de Defensa etiquetar a Anthropic como un “riesgo en la cadena de suministro”.

Esta es una victoria significativa para la empresa de IA en su batalla contra la administración Trump.

Qué Ordenó el Juez

La orden temporal:

  1. Bloquea la designación de Anthropic como riesgo de seguridad
  2. Impide al gobierno cortar contratos existentes con la empresa
  3. Da tiempo para que el caso se escuche completamente

Por Qué Anthropic Fue Blacklisteada

El conflicto comenzó cuando Anthropic estableció líneas rojas en sus negociaciones con el Pentágono:

  • No vigilancia masiva de ciudadanos estadounidenses
  • No armas autónomas sin supervisión humana

El Pentágono respondió designando a Anthropic como “riesgo en la cadena de suministro” — una clasificación normalmente reservada para empresas de países adversarios como China o Rusia.

Lo Que Dijo el Juez

Según reportes, la jueza expresó preocupación de que la designación parecía un castigo por las posturas éticas de Anthropic sobre seguridad de IA, no por un riesgo de seguridad real.

El gobierno no pudo demostrar un riesgo tangible más allá del desacuerdo sobre políticas de uso.

El Contexto Político

Esto sucede mientras:

  • OpenAI firmó un acuerdo con el Pentágono para una red clasificada
  • Trump ordenó una “purga” de Anthropic del gobierno federal
  • 3 agencias (State, Treasury, HHS) abandonaron a Anthropic en 24 horas

Qué Sigue

La orden temporal compra tiempo, pero no resuelve el caso. Anthropic aún enfrenta:

  1. Audiencias futuras sobre la designación permanente
  2. Presión política de la administración Trump
  3. Competencia de OpenAI por contratos gubernamentales

Lo Que Esto Significa

Esta batalla define una pregunta fundamental:

¿Puede el gobierno castigar a empresas de IA por tener posturas éticas sobre el uso de su tecnología?

Si Anthropic pierde el caso completo, el mensaje será claro: empresas que establezcan límites éticos serán excluidas de contratos gubernamentales.

Si gana, establece precedente de que las empresas pueden negociar términos de uso sin ser blacklisteadas.

La Ironía

Mientras esto sucede, el mismo gobierno que blacklistea a Anthropic por precauciones de seguridad usó IA de Anthropic para coordinar ataques en Irán horas después del ban.

El gobierno quiere los beneficios de la IA avanzada sin las restricciones éticas que vienen con ella.


¿Necesitas asesoría en ética de IA para tu empresa? Contáctanos.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD