OpenAI comenzará inmediatamente a utilizar el cómputo de AWS como parte de esta asociación, con toda la capacidad prevista para ser implementada antes de finales de 2026, y con la posibilidad de expandirse aún más en 2027 y en el futuro.
¿Cómo OpenAI usará el poder de cómputo de AWS?
La implementación de infraestructura que AWS está construyendo para OpenAI presenta un diseño arquitectónico sofisticado optimizado para una eficiencia y rendimiento máximos en el procesamiento de IA. La agrupación de las GPU NVIDIA —tanto GB200 como GB300— a través de Amazon EC2 UltraServers en la misma red permite un rendimiento de baja latencia en sistemas interconectados, lo que permite a OpenAI ejecutar cargas de trabajo de manera eficiente con un rendimiento óptimo.
Los clusters están diseñados para admitir diversas cargas de trabajo, desde ofrecer inferencia para ChatGPT hasta entrenar modelos de próxima generación, con la flexibilidad de adaptarse a las necesidades cambiantes de OpenAI.
“Escalar la IA de frontera requiere cómputo masivo y confiable”, dijo Sam Altman, cofundador y director ejecutivo de OpenAI. “Nuestra asociación con AWS fortalece el amplio ecosistema de cómputo que impulsará esta próxima era y llevará la IA avanzada a todos”.
"¡Estamos muy contentos de trabajar con Amazon para poner en línea muchos más chips NVIDIA para que OpenAI pueda seguir escalando!", agregó en un mensaje en la red social X.
“A medida que OpenAI continúa empujando los límites de lo que es posible, la infraestructura de primera clase de AWS servirá como columna vertebral de sus ambiciones de IA”, dijo Matt Garman, director ejecutivo de AWS. “La amplitud y disponibilidad inmediata del cómputo optimizado demuestran por qué AWS está en una posición única para respaldar las vastas cargas de trabajo de IA de OpenAI”.
Desde inicios de 2025, los modelos de pesos abiertos de OpenAI
están disponibles en Amazon Bedrock, lo que amplía su capacidad para crear y escalar aplicaciones de IA generativa. Esta integración entre OpenAI y AWS brinda la flexibilidad de aprovechar los
modelos de IA junto con otros a través de una única API unificada, lo que le permite seleccionar el mejor modelo para cada caso de uso específico sin modificar el código de su aplicación.