2 min de lectura

OpenAI Rompe con Nvidia: GPT-5.3-Codex Corre en Chips Cerebras a 1,000 Tokens/Segundo

En un movimiento que sacude la industria, OpenAI despliega su nuevo modelo en hardware de Cerebras, marcando el fin del monopolio de Nvidia en IA.

OpenAI Rompe con Nvidia: GPT-5.3-Codex Corre en Chips Cerebras

La dependencia de Nvidia empieza a resquebrajarse. OpenAI acaba de anunciar que su nuevo modelo GPT-5.3-Codex-Spark ya está corriendo en los aceleradores CS3 de Cerebras, alcanzando velocidades de hasta 1,000 tokens por segundo — una cifra que pone en jaque las soluciones tradicionales basadas en GPUs.

¿Por qué importa esto?

Hasta ahora, entrenar y ejecutar modelos de IA a escala comercial significaba una cosa: comprar GPUs de Nvidia. La empresa de Jensen Huang ha dominado el mercado con márgenes brutales y tiempos de espera de meses para conseguir sus chips H100 y Blackwell.

Pero Cerebras juega diferente. Su enfoque de “wafer-scale” — un chip gigante del tamaño de una oblea completa — elimina cuellos de botella de memoria y comunicación entre chips. El resultado: inferencia ultrarrápida sin el ecosistema CUDA de Nvidia.

Qué significa para México y LATAM

Para empresas mexicanas que están evaluando inversiones en IA, esto abre puertas:

  • Costos potencialmente más bajos — Competencia significa precios más accesibles
  • Menos dependencia de un solo proveedor — Diversificación de opciones de hardware
  • Velocidad de inferencia — Aplicaciones en tiempo real más viables

El panorama se fragmenta

Este movimiento de OpenAI no es aislado. Google desarrolla sus TPUs, Amazon tiene Trainium, y ahora vemos que incluso el líder del software de IA está dispuesto a alejarse de Nvidia cuando tiene sentido.

La pregunta no es si el monopolio de Nvidia terminará, sino qué tan rápido.


¿Tu empresa está evaluando infraestructura de IA? En KÖD ayudamos a diseñar arquitecturas que maximicen ROI sin atarte a un solo proveedor.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD