OpenAI acelera la programación con chips gigantes: ¡1.000 tokens por segundo!
OpenAI acelera la programación con chips gigantes: ¡1.000 tokens por segundo!
Imagina poder generar código a la velocidad de un rayo. OpenAI acaba de soltar Codex-Spark, su último agente de IA para programar, que alcanza los impresionantes 1.000 tokens por segundo en benchmarks reales. Tokens, por cierto, son como las "palabras" que entiende la IA, así que esto significa sugerencias de código ultrarrápidas.
Pero ojo, que esto no es lo máximo que han visto. Cerebras, la empresa detrás del hardware, ha medido hasta 2.100 tokens/segundo en Llama 3.1 70B y 3.000 tokens/segundo en el modelo gpt-oss-120B de OpenAI. La diferencia en Codex-Spark viene del tamaño y complejidad del modelo, que añade un poco de overhead, o sea, carga extra.
La carrera por el código más rápido
Este año ha sido una locura para los agentes de IA que escriben código. Herramientas como el Codex de OpenAI o el Claude Code de Anthropic están cambiando el juego: prototipos, interfaces y código base se montan en minutos. La clave está en la latencia, es decir, qué tan rápido responde la IA. Cuanto más veloz, más iteras como desarrollador.
OpenAI no para: sacó GPT-5.2 en diciembre de 2025 tras un "code red" interno por la presión de Google, y hace poquísimos días lanzaron GPT-5.3-Codex. Competencia feroz con Anthropic y Google, vaya.
Chips del tamaño de un plato: adiós Nvidia
Lo más jugoso es el hardware. Codex-Spark corre en el Wafer Scale Engine 3 de Cerebras, un chip enorme como un plato de cena. Cerebras lo usa desde 2022 para sus supercomputadoras de IA.
OpenAI está harto de depender solo de Nvidia. Han firmado un pedazo de acuerdo con AMD en octubre de 2025, otro de 38.000 millones de euros con Amazon en noviembre, y hasta diseñan su propio chip para fabricarlo con TSMC. El mega-deal de 100.000 millones de euros con Nvidia se ha ido al garete, aunque Nvidia pone ahora 20.000 millones de euros. El problema: los chips Nvidia no molan tanto para tareas de inferencia, que es generar respuestas rápidas con IA ya entrenada.
La alianza con Cerebras se anunció en enero, y este es el primer fruto.
¿En qué te afecta esto como usuario?
Si eres programador, esto te cambia la vida diaria. Esperar segundos por sugerencias de código ya no será un drama; con 1.000 tokens/segundo, iteras ideas en tiempo real, como si tuvieras un compañero supersónico. Prototipos que tardaban horas, ahora minutos. Pero cuidado: tanta velocidad puede sacrificar precisión, así que revisa bien el código generado, no vaya a ser un lío.
Para el resto, significa IA más eficiente y barata a largo plazo, porque OpenAI reduce costes al diversificar hardware.
Mi opinión personal
Me flipa cómo OpenAI está rompiendo moldes. Ese chip de Cerebras suena a ciencia ficción, despues de años viendo a Nvidia dominar todo. Creo que la velocidad ganará la carrera, aunque hay que equilibrar con calidad. Yo, que pruebo estas IAs para mis jueguitos y apps, ya quiero probar Codex-Spark en acción. ¿Velocidad o precisión? Para prototipos, velocidad al poder. ¿Qué opinais vosotros en los comentarios?