A finales de marzo, cientos de personas marcharon por las calles de San Francisco con carteles que decían “Stop the AI Race” y “Don’t Build Skynet”.
Su demanda: que las empresas de IA detengan el desarrollo de modelos que pueden mejorar otros modelos.
Pero ya es tarde. La IA recursiva ya está aquí.
OpenAI: “GPT-5.3 fue instrumental en crearse a sí mismo”
En un comunicado reciente, OpenAI reveló que su último modelo, GPT-5.3 Codex, fue “instrumental en crearse a sí mismo”.
No es metáfora. El modelo literalmente:
- Escribió parte de su propio código de entrenamiento
- Optimizó sus propios hiperparámetros
- Sugirió arquitecturas para futuras versiones
Y en los próximos 6 meses, OpenAI planea lanzar lo que llaman “un asistente de investigación de nivel intern” — un modelo que puede hacer research de IA de forma autónoma.
Anthropic: Claude escribe el 90% del código de la compañía
Anthropic fue más allá. Dario Amodei, CEO de Anthropic, reveló que Claude ya escribe el 90% del código de la empresa.
Eso incluye:
- Código de entrenamiento de modelos
- Optimizaciones de infraestructura
- Features nuevos para Claude mismo
Amodei estima que herramientas de IA han acelerado los workflows internos de Anthropic en 15-20%.
Google DeepMind: AlphaEvolve optimiza Gemini
Google no se quedó atrás. Su agente AlphaEvolve:
✅ Hizo la flota global de datacenters de Google 0.7% más eficiente
✅ Redujo el tiempo de entrenamiento de Gemini en 1%
Suena pequeño, pero a escala de Google, eso son millones de dólares.
El frenesí de Silicon Valley
En una entrevista, Nick Bostrom (filósofo que popularizó el concepto de superinteligencia) admitió:
“Solía llamarme a mí mismo un ‘optimista cauteloso’. Ahora soy un ‘fatalista moderado’.”
Según un estudio reciente que entrevistó a 25 investigadores líderes en DeepMind, OpenAI, Anthropic, Meta, UC Berkeley, Princeton y Stanford:
20 de 25 identificaron la automatización de investigación de IA como el avance más importante de los próximos 5 años.
El problema: todavía necesitamos humanos
Por ahora, estos sistemas no son recursivos de verdad — son incrementales:
- Pueden escribir código
- Pueden encontrar optimizaciones pequeñas
- Pueden acelerar partes del proceso
Pero todavía necesitan humanos para:
- Proponer hipótesis nuevas
- Decidir qué experimentos correr
- Asignar recursos escasos (compute)
- Tener “research taste” (creatividad + juicio)
La pregunta inquietante
Si estos modelos pueden acelerar research en 15-20% ahora, ¿qué pasa cuando logren 50%? ¿80%?
En ese punto, el ciclo de mejora podría acelerarse dramáticamente. En lugar de esperar meses entre breakthroughs, podríamos esperar semanas.
Y eventualmente, días.
Los protests de San Francisco
Los manifestantes que marcharon en San Francisco no son tecnófobos. Muchos de ellos son investigadores de IA.
Su preocupación: que una vez que los modelos puedan mejorarse a sí mismos sin intervención humana, no hay vuelta atrás.
I.J. Good, en 1965, lo llamó “la última invención que la humanidad necesitará hacer”.
60 años después, esa invención podría estar a la vuelta de la esquina.
Fuentes: The Atlantic, OpenAI Blog, Anthropic interviews, Google DeepMind


