3 min de lectura

OpenAI disuelve su equipo de 'Mission Alignment' que velaba por una AGI segura

El equipo encargado de asegurar que la AGI beneficie a toda la humanidad ha sido desmantelado. Su líder ahora será el 'Chief Futurist' de OpenAI.

Otro equipo de seguridad que cae en OpenAI

OpenAI ha desmantelado su equipo de Mission Alignment, el grupo encargado de asegurar que la Inteligencia Artificial General (AGI) beneficie a toda la humanidad. Los miembros han sido transferidos a otras áreas de la empresa.

Esto suena familiar, ¿no? Es el segundo equipo de seguridad/alineación que OpenAI disuelve en menos de un año.

¿Qué era Mission Alignment?

El equipo de Mission Alignment tenía una tarea crucial: asegurar que OpenAI no perdiera de vista su misión original de crear IA que beneficie a la humanidad.

En teoría, eran el contrapeso interno contra la presión comercial de lanzar productos sin las debidas precauciones.

El nuevo rol: “Chief Futurist”

Joshua Achiam, quien lideraba el equipo, ahora tendrá el título de “Chief Futurist” de OpenAI.

El cambio de “líder de seguridad de AGI” a “futurista jefe” es… revelador. Suena menos como “asegurar que la IA no destruya la humanidad” y más como “dar charlas sobre el futuro en conferencias”.

El patrón preocupante

Este movimiento sigue un patrón en OpenAI:

AñoEvento
2024Sale Ilya Sutskever (cofundador, seguridad)
2024Se disuelve el equipo de Superalignment
2025Salen varios investigadores de seguridad
2026Se disuelve Mission Alignment

Cada vez que OpenAI enfrenta presión por avanzar más rápido, los equipos de seguridad parecen ser los primeros en caer.

¿Por qué importa?

OpenAI está construyendo lo que ellos mismos llaman una de las tecnologías más transformadoras de la historia humana. Sin equipos internos que cuestionen y frenen decisiones arriesgadas, ¿quién pone los límites?

La respuesta, cada vez más, parece ser: nadie.

La visión comercial vs. la misión

OpenAI pasó de ser un laboratorio sin fines de lucro a una empresa que:

  • Busca miles de millones en inversión
  • Está explorando poner anuncios en ChatGPT
  • Compite agresivamente con Google, Anthropic y otros
  • Planea lanzar hardware propio

Todo esto mientras disuelve equipos de seguridad. Las prioridades son claras.

¿Qué significa para nosotros?

Como usuarios y empresas que dependemos de estas herramientas, necesitamos:

  1. Diversificar proveedores - No depender solo de OpenAI
  2. Seguir el desarrollo de Claude (Anthropic) - Que sí mantiene enfoque en seguridad
  3. Exigir transparencia - Como consumidores tenemos voz

En KÖD seguimos de cerca estos desarrollos porque la IA que implementamos en tu negocio debe ser confiable. Hablemos.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD