Estás leyendo
OpenAI firma con Amazon un acuerdo de 38.000 millones para ampliar su capacidad de cómputo en la nube

OpenAI firma con Amazon un acuerdo de 38.000 millones para ampliar su capacidad de cómputo en la nube

  • OpenAI contratará servicios de Amazon Web Services por 38.000 millones de dólares en siete años, tras renegociar su exclusividad con Microsoft y ampliar su infraestructura global de inteligencia artificial.
OpenAI firma con Amazon un acuerdo de 38.000 millones para ampliar su capacidad de cómputo en la nube

OpenAI ha firmado un acuerdo con Amazon Web Services (AWS) valorado en 38.000 millones de dólares para acceder a infraestructura de computación en la nube durante los próximos siete años. El pacto, anunciado por ambas compañías, marca un cambio profundo en la estrategia tecnológica del desarrollador de ChatGPT, que hasta ahora dependía casi por completo de Microsoft para ejecutar sus cargas de trabajo de inteligencia artificial.

La alianza permitirá a OpenAI desplegar de inmediato sus sistemas en la infraestructura de AWS y escalar su capacidad de cómputo a medida que crecen sus modelos generativos. El contrato incluye el uso de los nuevos Amazon EC2 UltraServers, equipados con cientos de miles de chips y capacidad para escalar hasta decenas de millones de CPUs. Según los términos del acuerdo, la totalidad de esta infraestructura estará operativa antes de que termine 2026, con margen para ampliarse más allá de 2027.

“Escalar la inteligencia artificial de frontera requiere una capacidad de cómputo masiva y fiable”, señaló Sam Altman, cofundador y consejero delegado de OpenAI. “Nuestra colaboración con AWS refuerza un ecosistema de infraestructura más amplio que sostendrá la próxima era de la inteligencia artificial y la acercará a todos los usuarios.”

Desde el lado de Amazon, Matt Garman, consejero delegado de AWS, destacó que “a medida que OpenAI continúa empujando los límites de lo posible, la infraestructura de AWS actuará como la columna vertebral de sus ambiciones”.

De la exclusividad con Microsoft a la diversificación de socios

Entre 2019 y 2023, OpenAI utilizó exclusivamente la nube de Microsoft en virtud de un acuerdo que vinculaba su financiación con el uso prioritario de Azure. Durante ese periodo, Microsoft llegó a invertir más de 13.000 millones de dólares en la compañía. Sin embargo, a medida que OpenAI incrementaba sus necesidades de procesamiento, comenzaron las tensiones por la capacidad disponible.

En los últimos 18 meses, Microsoft permitió a la empresa firmar acuerdos puntuales con Oracle y otros proveedores para aliviar la escasez de recursos. Finalmente, la semana pasada, ambas compañías renegociaron su contrato y eliminaron la cláusula de exclusividad, lo que abrió la puerta a alianzas con otros grandes operadores de la nube.

La firma con Amazon llega apenas unos días después de esa renegociación. Y no se trata de un movimiento aislado. OpenAI mantiene en paralelo acuerdos con Nvidia, AMD y Broadcom para el suministro de chips avanzados, además de colaboraciones con Oracle, SoftBank y socios en Emiratos Árabes Unidos para construir nuevos centros de datos.

La carrera por la infraestructura de la IA

El aumento explosivo de la demanda de cómputo ha transformado la relación entre los desarrolladores de modelos de IA y los proveedores de infraestructura. Los grandes modelos generativos exigen recursos energéticos, espaciales y financieros sin precedentes, y las compañías están desplegando miles de millones en inversión de capital para sostener ese crecimiento.

En el último año, Amazon, Google, Meta y Microsoft comprometieron más de 360.000 millones de dólares en gasto de capital para reforzar sus centros de datos y su capacidad de procesamiento. Con el nuevo acuerdo, OpenAI busca situarse al mismo nivel de escala, en un mercado que se ha convertido en el eje del poder tecnológico global.

AWS, por su parte, se posiciona como un socio clave en esa carrera. Sus sistemas de alto rendimiento agrupan más de medio millón de chips en clústeres diseñados para mantener bajas latencias y optimizar el entrenamiento y despliegue de modelos. La compañía destaca la flexibilidad de su arquitectura, capaz de adaptarse a diferentes cargas de trabajo, desde la inferencia que impulsa ChatGPT hasta el entrenamiento de nuevas generaciones de modelos.

De Bedrock a la expansión estratégica

La colaboración entre Amazon y OpenAI no es completamente nueva. A comienzos de este año, los modelos fundacionales de OpenAI se incorporaron a Amazon Bedrock, la plataforma de AWS que ofrece modelos de IA de terceros a clientes empresariales. Según AWS, OpenAI se convirtió rápidamente en uno de los proveedores más utilizados dentro del servicio, con clientes como Thomson Reuters, Comscore o Peloton.

El nuevo contrato amplía esa cooperación y la lleva al terreno de la infraestructura física, un paso que refuerza la interdependencia entre los desarrolladores de modelos y los gigantes del cloud. En la práctica, OpenAI diversifica su base de cómputo para reducir la dependencia de un único proveedor, mientras Amazon incorpora a su red a uno de los actores más influyentes del ecosistema de IA.

Riesgos y tensiones en el horizonte

El incremento de estas inversiones plantea preguntas sobre la sostenibilidad del modelo económico de la inteligencia artificial. Pese a los ingresos crecientes de OpenAI, la compañía no es aún rentable. Su estrategia de expansión requiere enormes desembolsos en hardware, energía y mantenimiento, lo que ha llevado a algunos analistas a advertir de un posible sobrecalentamiento del sector.

Te puede interesar
Salesforce Agentforce 360

El paralelismo con otras fases de burbuja tecnológica no pasa desapercibido. A finales de los noventa, la fiebre de las telecomunicaciones condujo a un exceso de capacidad que tardó años en absorberse. Hoy, el coste de los chips y de la infraestructura eléctrica genera tensiones similares, con márgenes que dependen de la velocidad a la que la IA consiga generar valor real para las empresas.

En este contexto, la diversificación de proveedores puede actuar como un mecanismo de resiliencia. Si el suministro de chips o la disponibilidad energética se convierten en cuellos de botella, contar con múltiples socios de infraestructura —como AWS, Oracle o SoftBank— permite a OpenAI distribuir mejor sus riesgos y mantener el ritmo de desarrollo.

Un cambio de equilibrio en la industria

Más allá de su impacto operativo, el acuerdo también reconfigura las alianzas en el sector de la nube. Microsoft seguirá siendo un socio financiero y estratégico de OpenAI, pero su posición exclusiva como proveedor principal queda atrás. Amazon, en cambio, refuerza su papel como proveedor neutral y se asegura una parte del flujo de cómputo que alimenta la IA más avanzada del mercado.

El movimiento puede tener efectos indirectos en la competencia. Google Cloud y Oracle, que también aspiran a capturar parte del mercado de entrenamiento de modelos, podrían verse presionadas a ofrecer condiciones más flexibles o soluciones más energéticamente eficientes. En paralelo, los fabricantes de chips, especialmente Nvidia y AMD, consolidan su posición como los verdaderos árbitros del ritmo de la innovación.

Perspectiva

El acuerdo de 38.000 millones entre OpenAI y Amazon simboliza una transición hacia un ecosistema más interdependiente y menos monolítico en el ámbito del cómputo para IA. La velocidad a la que se desplieguen estos recursos determinará no solo el avance técnico de los modelos generativos, sino también la estructura económica de la próxima década digital.

Aunque la narrativa actual gira en torno a la escala, la cuestión de fondo será la eficiencia: cuánta inteligencia real puede extraerse de cada dólar invertido en infraestructura. Por ahora, la apuesta es monumental.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad