OpenAI Rompe con Nvidia: GPT-5.3-Codex Corre en Chips Cerebras
La dependencia de Nvidia empieza a resquebrajarse. OpenAI acaba de anunciar que su nuevo modelo GPT-5.3-Codex-Spark ya está corriendo en los aceleradores CS3 de Cerebras, alcanzando velocidades de hasta 1,000 tokens por segundo — una cifra que pone en jaque las soluciones tradicionales basadas en GPUs.
¿Por qué importa esto?
Hasta ahora, entrenar y ejecutar modelos de IA a escala comercial significaba una cosa: comprar GPUs de Nvidia. La empresa de Jensen Huang ha dominado el mercado con márgenes brutales y tiempos de espera de meses para conseguir sus chips H100 y Blackwell.
Pero Cerebras juega diferente. Su enfoque de “wafer-scale” — un chip gigante del tamaño de una oblea completa — elimina cuellos de botella de memoria y comunicación entre chips. El resultado: inferencia ultrarrápida sin el ecosistema CUDA de Nvidia.
Qué significa para México y LATAM
Para empresas mexicanas que están evaluando inversiones en IA, esto abre puertas:
- Costos potencialmente más bajos — Competencia significa precios más accesibles
- Menos dependencia de un solo proveedor — Diversificación de opciones de hardware
- Velocidad de inferencia — Aplicaciones en tiempo real más viables
El panorama se fragmenta
Este movimiento de OpenAI no es aislado. Google desarrolla sus TPUs, Amazon tiene Trainium, y ahora vemos que incluso el líder del software de IA está dispuesto a alejarse de Nvidia cuando tiene sentido.
La pregunta no es si el monopolio de Nvidia terminará, sino qué tan rápido.
¿Tu empresa está evaluando infraestructura de IA? En KÖD ayudamos a diseñar arquitecturas que maximicen ROI sin atarte a un solo proveedor.


