3 min de lectura

Silicon Valley está en frenesí por bots que se construyen a sí mismos (y algunos quieren detenerlo)

OpenAI dice que GPT-5.3 "fue instrumental en crearse a sí mismo". Anthropic revela que Claude escribe el 90% del código de la compañía. Mientras tanto, protesters en San Francisco exigen parar la carrera de IA recursiva.

A finales de marzo, cientos de personas marcharon por las calles de San Francisco con carteles que decían “Stop the AI Race” y “Don’t Build Skynet”.

Su demanda: que las empresas de IA detengan el desarrollo de modelos que pueden mejorar otros modelos.

Pero ya es tarde. La IA recursiva ya está aquí.

OpenAI: “GPT-5.3 fue instrumental en crearse a sí mismo”

En un comunicado reciente, OpenAI reveló que su último modelo, GPT-5.3 Codex, fue “instrumental en crearse a sí mismo”.

No es metáfora. El modelo literalmente:

  • Escribió parte de su propio código de entrenamiento
  • Optimizó sus propios hiperparámetros
  • Sugirió arquitecturas para futuras versiones

Y en los próximos 6 meses, OpenAI planea lanzar lo que llaman “un asistente de investigación de nivel intern” — un modelo que puede hacer research de IA de forma autónoma.

Anthropic: Claude escribe el 90% del código de la compañía

Anthropic fue más allá. Dario Amodei, CEO de Anthropic, reveló que Claude ya escribe el 90% del código de la empresa.

Eso incluye:

  • Código de entrenamiento de modelos
  • Optimizaciones de infraestructura
  • Features nuevos para Claude mismo

Amodei estima que herramientas de IA han acelerado los workflows internos de Anthropic en 15-20%.

Google DeepMind: AlphaEvolve optimiza Gemini

Google no se quedó atrás. Su agente AlphaEvolve:

✅ Hizo la flota global de datacenters de Google 0.7% más eficiente
✅ Redujo el tiempo de entrenamiento de Gemini en 1%

Suena pequeño, pero a escala de Google, eso son millones de dólares.

El frenesí de Silicon Valley

En una entrevista, Nick Bostrom (filósofo que popularizó el concepto de superinteligencia) admitió:

“Solía llamarme a mí mismo un ‘optimista cauteloso’. Ahora soy un ‘fatalista moderado’.”

Según un estudio reciente que entrevistó a 25 investigadores líderes en DeepMind, OpenAI, Anthropic, Meta, UC Berkeley, Princeton y Stanford:

20 de 25 identificaron la automatización de investigación de IA como el avance más importante de los próximos 5 años.

El problema: todavía necesitamos humanos

Por ahora, estos sistemas no son recursivos de verdad — son incrementales:

  • Pueden escribir código
  • Pueden encontrar optimizaciones pequeñas
  • Pueden acelerar partes del proceso

Pero todavía necesitan humanos para:

  • Proponer hipótesis nuevas
  • Decidir qué experimentos correr
  • Asignar recursos escasos (compute)
  • Tener “research taste” (creatividad + juicio)

La pregunta inquietante

Si estos modelos pueden acelerar research en 15-20% ahora, ¿qué pasa cuando logren 50%? ¿80%?

En ese punto, el ciclo de mejora podría acelerarse dramáticamente. En lugar de esperar meses entre breakthroughs, podríamos esperar semanas.

Y eventualmente, días.

Los protests de San Francisco

Los manifestantes que marcharon en San Francisco no son tecnófobos. Muchos de ellos son investigadores de IA.

Su preocupación: que una vez que los modelos puedan mejorarse a sí mismos sin intervención humana, no hay vuelta atrás.

I.J. Good, en 1965, lo llamó “la última invención que la humanidad necesitará hacer”.

60 años después, esa invención podría estar a la vuelta de la esquina.


Fuentes: The Atlantic, OpenAI Blog, Anthropic interviews, Google DeepMind

Avatar de Jorge Razo
Jorge Razo Director @ KÖD