Otro equipo de seguridad que cae en OpenAI
OpenAI ha desmantelado su equipo de Mission Alignment, el grupo encargado de asegurar que la Inteligencia Artificial General (AGI) beneficie a toda la humanidad. Los miembros han sido transferidos a otras áreas de la empresa.
Esto suena familiar, ¿no? Es el segundo equipo de seguridad/alineación que OpenAI disuelve en menos de un año.
¿Qué era Mission Alignment?
El equipo de Mission Alignment tenía una tarea crucial: asegurar que OpenAI no perdiera de vista su misión original de crear IA que beneficie a la humanidad.
En teoría, eran el contrapeso interno contra la presión comercial de lanzar productos sin las debidas precauciones.
El nuevo rol: “Chief Futurist”
Joshua Achiam, quien lideraba el equipo, ahora tendrá el título de “Chief Futurist” de OpenAI.
El cambio de “líder de seguridad de AGI” a “futurista jefe” es… revelador. Suena menos como “asegurar que la IA no destruya la humanidad” y más como “dar charlas sobre el futuro en conferencias”.
El patrón preocupante
Este movimiento sigue un patrón en OpenAI:
| Año | Evento |
|---|---|
| 2024 | Sale Ilya Sutskever (cofundador, seguridad) |
| 2024 | Se disuelve el equipo de Superalignment |
| 2025 | Salen varios investigadores de seguridad |
| 2026 | Se disuelve Mission Alignment |
Cada vez que OpenAI enfrenta presión por avanzar más rápido, los equipos de seguridad parecen ser los primeros en caer.
¿Por qué importa?
OpenAI está construyendo lo que ellos mismos llaman una de las tecnologías más transformadoras de la historia humana. Sin equipos internos que cuestionen y frenen decisiones arriesgadas, ¿quién pone los límites?
La respuesta, cada vez más, parece ser: nadie.
La visión comercial vs. la misión
OpenAI pasó de ser un laboratorio sin fines de lucro a una empresa que:
- Busca miles de millones en inversión
- Está explorando poner anuncios en ChatGPT
- Compite agresivamente con Google, Anthropic y otros
- Planea lanzar hardware propio
Todo esto mientras disuelve equipos de seguridad. Las prioridades son claras.
¿Qué significa para nosotros?
Como usuarios y empresas que dependemos de estas herramientas, necesitamos:
- Diversificar proveedores - No depender solo de OpenAI
- Seguir el desarrollo de Claude (Anthropic) - Que sí mantiene enfoque en seguridad
- Exigir transparencia - Como consumidores tenemos voz
En KÖD seguimos de cerca estos desarrollos porque la IA que implementamos en tu negocio debe ser confiable. Hablemos.


