putilov_denis - stock.adobe.com
OpenAI ejecutará sus cargas de trabajo de IA en AWS
A través de una asociación entre ambas empresas, OpenAI empleará la infraestructura de AWS de forma inmediata para ejecutar sus cargas de trabajo avanzadas de inteligencia artificial.
Amazon Web Services (AWS) y OpenAI anunciaron una asociación estratégica plurianual para que esta última pueda ejecutar y escalar sus cargas de trabajo principales de inteligencia artificial (IA) en la infraestructura de clase mundial de AWS, con efecto inmediato.
El acuerdo, valorado en 38.000 millones de dólares, permite a OpenAI acceder al cómputo de AWS, que comprende cientos de miles de GPU NVIDIA de última generación, con capacidad de expandirse a decenas de millones de CPU para escalar rápidamente las cargas de trabajo de la IA agéntica. El acuerdo prevé que OpenAI implemente la capacidad completa que requiere antes de finales de 2026, con la posibilidad de expandirse aún más en 2027 y más allá.
El rápido avance de la IA ha creado una demanda sin precedentes de poder de cómputo. A medida que los proveedores de modelos de frontera buscan llevar sus modelos a nuevos niveles de inteligencia, recurren cada vez más a los hiperescaladores debido al rendimiento, la escala y la seguridad que pueden lograr.
AWS informó que la implementación de infraestructura que está construyendo para OpenAI tiene un diseño arquitectónico sofisticado, optimizado para brindar una eficiencia y rendimiento máximos en el procesamiento de IA. El proveedor proporcionará servidores Amazon EC2 UltraServers, con cientos de miles de chips, y la capacidad de escalar a decenas de millones de CPU para sus cargas de trabajo generativas de IA.
La agrupación de las GPU NVIDIA –tanto GB200 como GB300– a través de Amazon EC2 UltraServers en la misma red permite un rendimiento de baja latencia en sistemas interconectados, lo que permite a OpenAI ejecutar cargas de trabajo de manera eficiente con un rendimiento óptimo. Además, los clusters están diseñados para admitir diversas cargas de trabajo, desde ofrecer inferencia para ChatGPT, hasta entrenar modelos de próxima generación, con la flexibilidad de adaptarse a las necesidades cambiantes de OpenAI.
“Escalar la IA de frontera requiere cómputo masivo y confiable”, dijo Sam Altman, cofundador y director ejecutivo de OpenAI. “Nuestra asociación con AWS fortalece el amplio ecosistema de cómputo que impulsará esta próxima era y llevará la IA avanzada a todos”.
“A medida que OpenAI continúa empujando los límites de lo que es posible, la infraestructura de primera clase de AWS servirá como columna vertebral de sus ambiciones de IA”, dijo Matt Garman, director ejecutivo de AWS. “La amplitud y disponibilidad inmediata del cómputo optimizado demuestran por qué AWS está en una posición única para respaldar las vastas cargas de trabajo de IA de OpenAI”.
A principios de 2025, los modelos fundacionales de peso abierto de OpenAI se pusieron a disposición en Amazon Bedrock, lo que trajo estas opciones adicionales de modelos a millones de clientes en AWS. OpenAI es uno de los proveedores de modelos disponibles públicamente más populares en Amazon Bedrock, con miles de clientes trabajando con sus modelos para flujos de trabajo agénticos, codificación, análisis científico, resolución de problemas matemáticos y más.