OpenAI usará la infraestructura de nube de AWS para mejorar modelos de IA

Los modelos de IA de OpenAI ya están disponible en Amazon Bedrock

Desde inicios de 2025, los modelos de pesos abiertos de OpenAI están disponibles en Amazon Bedrock.

Desde inicios de 2025, los modelos de pesos abiertos de OpenAI están disponibles en Amazon Bedrock.

16:49 | Lima, nov. 3.

Amazon Web Services (AWS) y OpenAI anunciaron una asociación estratégica de 38.000 millones de dólares, que permitirá que la empresa tecnológica detrás de ChatGPT tenga acceso a la infraestructura de nube de AWS, que comprende cientos de miles de GPU NVIDIA de última generación.

El rápido avance de la tecnología de IA ha creado una demanda sin precedentes de poder de cómputo. Es por ello que resulta clave contar con una infraestructura sólida y segura para el desarrollo de modelos de IA.

La alianza de Amazon Web Services (AWS) y OpenAI continuará creciendo durante los próximos siete años. Además, se contempla la capacidad de expandirse de cientos de miles a decenas de millones de CPU para escalar rápidamente las cargas de trabajo agentivas.

OpenAI obtendrá la infraestructura de IA de AWS, con clusters que superan los 500.000 chips, según un comunicado de prensa. 

OpenAI comenzará inmediatamente a utilizar el cómputo de AWS como parte de esta asociación, con toda la capacidad prevista para ser implementada antes de finales de 2026, y con la posibilidad de expandirse aún más en 2027 y en el futuro.

¿Cómo OpenAI usará el poder de cómputo de AWS?

La implementación de infraestructura que AWS está construyendo para OpenAI presenta un diseño arquitectónico sofisticado optimizado para una eficiencia y rendimiento máximos en el procesamiento de IA. La agrupación de las GPU NVIDIA —tanto GB200 como GB300— a través de Amazon EC2 UltraServers en la misma red permite un rendimiento de baja latencia en sistemas interconectados, lo que permite a OpenAI ejecutar cargas de trabajo de manera eficiente con un rendimiento óptimo. 

Los clusters están diseñados para admitir diversas cargas de trabajo, desde ofrecer inferencia para ChatGPT hasta entrenar modelos de próxima generación, con la flexibilidad de adaptarse a las necesidades cambiantes de OpenAI.

“Escalar la IA de frontera requiere cómputo masivo y confiable”, dijo Sam Altman, cofundador y director ejecutivo de OpenAI. “Nuestra asociación con AWS fortalece el amplio ecosistema de cómputo que impulsará esta próxima era y llevará la IA avanzada a todos”.

"¡Estamos muy contentos de trabajar con Amazon para poner en línea muchos más chips NVIDIA para que OpenAI pueda seguir escalando!", agregó en un mensaje en la red social X.




“A medida que OpenAI continúa empujando los límites de lo que es posible, la infraestructura de primera clase de AWS servirá como columna vertebral de sus ambiciones de IA”, dijo Matt Garman, director ejecutivo de AWS. “La amplitud y disponibilidad inmediata del cómputo optimizado demuestran por qué AWS está en una posición única para respaldar las vastas cargas de trabajo de IA de OpenAI”.

Desde inicios de 2025, los modelos de pesos abiertos de OpenAI están disponibles en Amazon Bedrock, lo que amplía su capacidad para crear y escalar aplicaciones de IA generativa. Esta integración entre OpenAI y AWS  brinda la flexibilidad de aprovechar los modelos de IA junto con otros a través de una única API unificada, lo que le permite seleccionar el mejor modelo para cada caso de uso específico sin modificar el código de su aplicación. 

Revisa más noticias sobre ciencia, tecnología e innovación en la Agencia Andina y escucha historias inspiradoras en Andina Podcast.

Más en Andina:
(FIN) NDP/SPV

Publicado: 3/11/2025