La Renuncia que Sacude a OpenAI
Caitlin Kalinowski, quien lideraba el equipo de robótica de OpenAI, acaba de anunciar su renuncia. La razón: el acuerdo de la empresa con el Pentágono.
En un post en X, Kalinowski explicó sus preocupaciones:
“El contrato no hace lo suficiente para proteger a los estadounidenses de vigilancia sin orden judicial y otorgar autonomía letal a la IA sin autorización humana era una línea que merecía más deliberación.”
Las Preocupaciones Específicas
1. Vigilancia Masiva
El acuerdo con el Pentágono incluye capacidades que podrían usarse para vigilancia doméstica sin orden judicial. Kalinowski argumenta que las protecciones son insuficientes.
2. Armas Autónomas Letales
La frase clave: “autonomía letal sin autorización humana”. Esto sugiere que el acuerdo contempla sistemas de armas que pueden decidir matar sin intervención humana.
3. Falta de Deliberación
Según Kalinowski, estas decisiones se tomaron sin el debate interno que merecían.
El Contexto: OpenAI vs Anthropic
Esta renuncia ocurre en medio de la batalla entre OpenAI y Anthropic por contratos militares:
- Anthropic fue designada “riesgo de cadena de suministro” por el Pentágono
- OpenAI firmó un acuerdo con el Departamento de Defensa
- Empleados de ambas empresas están protestando
Por Qué Importa Globalmente
Precedente Peligroso
Si OpenAI normaliza IA militar con autonomía letal, otras empresas y países seguirán.
Carrera Armamentista
China, Rusia y otros países acelerarán sus propios programas de armas autónomas.
Erosión de Confianza
¿Cómo confiar en ChatGPT si la misma empresa desarrolla sistemas de vigilancia?
La Respuesta de la Comunidad Tech
La renuncia de Kalinowski no es aislada:
- 900 empleados de Google y OpenAI firmaron carta contra uso militar
- Protestas programadas afuera de oficinas de OpenAI
- QuitGPT reporta 1.5 millones de personas tomando acción
Para México: Reflexiones
Soberanía Tecnológica
Si dependemos de IA de empresas con contratos militares de EE.UU., ¿qué implica para nuestra seguridad?
Desarrollo Propio
Países como México necesitan capacidad de IA no atada a intereses militares extranjeros.
Regulación
Sin regulación, las empresas priorizan contratos lucrativos sobre ética.
El Dilema de la IA
OpenAI comenzó como organización sin fines de lucro enfocada en “beneficiar a la humanidad”. Ahora:
- Vale más de $150 mil millones
- Tiene contratos militares clasificados
- Su head de robótica renuncia por preocupaciones éticas
¿Qué pasó con la misión original?
¿Te preocupa el uso militar de IA? Comparte este artículo y únete a la conversación en @wearekod.


