La Rebelión de los Trabajadores Tech
En un movimiento sin precedentes, casi 900 empleados de Google y OpenAI han firmado una carta abierta titulada “We Will Not Be Divided” (No Seremos Divididos), exigiendo límites claros al uso militar de la inteligencia artificial.
La carta creció de unos cientos de nombres el viernes a casi 900 para el lunes, incluyendo cerca de 100 firmantes de OpenAI y casi 800 de Google.
El Detonante: Anthropic vs Pentágono
Todo comenzó cuando el Departamento de Defensa de EE.UU. blacklisteó a Anthropic tras su negativa a permitir que Claude se use para:
- Vigilancia masiva de ciudadanos estadounidenses
- Armas totalmente autónomas
La respuesta del Pentágono fue declarar a Anthropic como un “riesgo de cadena de suministro” — una designación reservada normalmente para adversarios extranjeros como Huawei.
El Mensaje de la Carta
“Están intentando dividir a cada empresa con el miedo de que la otra cederá. Esa estrategia solo funciona si ninguno de nosotros sabe dónde están los demás.”
Los empleados acusan al gobierno de usar tácticas de división para presionar a las empresas tech a ceder en sus principios éticos.
El Contexto: Ataques en Irán
Las operaciones de combate comenzaron en Irán horas después de que la administración Trump bloqueara a Anthropic. La coincidencia temporal ha intensificado las preocupaciones sobre el uso de IA en conflictos bélicos.
Según reportes, el modelo Claude de Anthropic se utilizó en los ataques a Irán — a pesar del bloqueo pendiente — como parte de un sistema desarrollado por Palantir para “mejorar dramáticamente el análisis de inteligencia”.
Jeff Dean Rompe el Silencio
Jeff Dean, científico en jefe de Google, respondió a un memo interno de más de 100 empleados de DeepMind expresando preocupaciones similares:
“La vigilancia masiva viola la Cuarta Enmienda y tiene un efecto escalofriante en la libertad de expresión.”
Dean añadió que los sistemas de vigilancia son “propensos al mal uso con propósitos políticos o discriminatorios.”
El Fantasma de Project Maven
Para Google, esto revive viejas heridas. En 2018, miles de empleados protestaron contra Project Maven, un programa del Pentágono que usaba IA para analizar imágenes de drones. Google dejó expirar el contrato.
En 2024, la empresa despidió a más de 50 empleados tras protestas por Project Nimbus, un contrato de $1.2 mil millones con el gobierno israelí.
Por Qué Importa en México
Esta rebelión interna tiene implicaciones globales:
- Precedente ético: Si las Big Tech establecen líneas rojas, otros seguirán
- Seguridad regional: La IA militar no se queda en un solo país
- Talento tech: Los desarrolladores mexicanos en estas empresas también se cuestionan dónde trabajan
¿Qué Sigue?
Anthropic anunció que demandará al gobierno por el blacklisting. Mientras tanto, OpenAI firmó un acuerdo con el Pentágono horas después del bloqueo a su rival.
La pregunta que queda en el aire: ¿Los principios éticos sobreviven a la presión gubernamental?
¿Tu empresa tiene políticas claras sobre IA ética? En KÖD ayudamos a definir frameworks de uso responsable de IA.


