viernes, 13 de febrero de 2026

OpenAI Acelera Codigo Cerebras Chips vs Nvidia

OpenAI ha dado un paso audaz al lanzar su nuevo modelo de codificación, GPT-5.3-Codex-Spark, diseñado para ofrecer tiempos de respuesta casi instantáneos. Este movimiento estratégico marca la primera incursión importante de la compañía en asociaciones de inferencia fuera de su infraestructura tradicional, dominada por Nvidia. En cambio, OpenAI ha optado por la tecnología de Cerebras Systems, un fabricante de chips especializado en cargas de trabajo de IA de baja latencia, utilizando sus procesadores de escala de oblea.

OpenAI Acelera Codigo Cerebras Chips vs Nvidia

Esta decisión se pro duce en un momento crucial para OpenAI, marcado por una relación tensa con Nvidia, críticas por la introducción de anuncios en ChatGPT, un nuevo contrato con el Pentágono y reestructuraciones internas. A pesar de que las GPUs de Nvidia siguen siendo fundamentales para el entrenamiento y la inferencia, OpenAI busca con Cerebras complementar esta base para flujos de trabajo que exigen una latencia extremadamente baja, mejorando la experiencia del usuario en aplicaciones como la codificación en tiempo real.

El modelo Codex-Spark, aunque más rápido (más de 1000 tokens por segundo), presenta ciertas concesiones en cuanto a capacidades en comparación con el modelo GPT-5.3-Codex completo, según benchmarks como SWE-Bench Pro y Terminal-Bench 2.0. OpenAI considera este intercambio aceptable, priorizando la fluidez creativa de los desarrolladores sobre la capacidad de abordar las tareas de programación más complejas. El modelo, con una ventana de contexto de 128,000 tokens y soporte solo de texto, está disponible inicialmente como vista previa para suscriptores de ChatGPT Pro y para un grupo selecto de socios empresariales a través de la API.

La arquitectura de Cerebras, con su Wafer Scale Engine 3, elimina cuellos de botella de comunicación presentes en los clústeres de GPUs tradicionales, lo que resulta en una latencia significativamente menor para la inferencia. Esta asociación, junto con acuerdos con AMD y Broadcom, subraya la estrategia de OpenAI de diversificar sus proveedores de chips para reducir la dependencia de un solo proveedor, a pesar de las tensiones con Nvidia. Este movimiento, además, se produce mientras OpenAI enfrenta escrutinio por la disolución de equipos de seguridad y la salida de investigadores, lo que genera interrogantes sobre sus prioridades.

La visión a futuro de OpenAI es un asistente de codificación que combine ediciones interactivas rápidas con tareas autónomas complejas, delegando trabajos a sub-ag entes en segundo plano o a múltiples modelos en paralelo. Codex-Spark sienta las bases para la parte interactiva de esta experiencia, mientras que futuras versiones deberán abordar el razonamiento autónomo y la coordinación multientidad. La competencia en herramientas de desarrollo impulsadas por IA es feroz, y el éxito de Codex-Spark dependerá de si la mejora en la velocidad de respuesta se traduce en una mayor productividad y mejores resultados en el desarrollo de software.

Fuente Original: https://venturebeat.com/technology/openai-deploys-cerebras-chips-for-15x-faster-code-generation-in-first-major

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

No hay comentarios:

Publicar un comentario