Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La infraestructura de AWS siempre ha sido un argumento en sí misma, pero en re:Invent 2025 toma un papel más expansivo. Matt Garman no describe un avance incremental en generaciones de cómputo, sino una arquitectura que se estira en varias direcciones a la vez: más rendimiento, más control, más soberanía y más proximidad a los datos.
La sensación es que la compañía está ajustando todas las capas a la vez para preparar el terreno a una generación de cargas de IA que ya no se conforma con más potencia, sino que exigen coherencia, proximidad a los datos y una fiabilidad capaz de sostener ciclos de entrenamiento y despliegue cada vez más largos.
A nivel operativo, la keynote inaugural comienza subrayando que AWS controla 38 regiones, 120 zonas de disponibilidad y una red privada que supera los nueve millones de kilómetros de cable terrestre y submarino. Es un dato conocido para quienes siguen la evolución de la nube, pero esta vez se utiliza de otra manera: como fundamento para argumentar que las capas superiores del stack —modelos, agentes y aplicaciones— dependen de esa base física y del ritmo de innovación que AWS pueda imponer sobre ella.
Un punto crítico: la infraestructura como producto y como política
Cuando Garman habla de infraestructura para IA, no lo hace desde la comodidad del proveedor dominante. Presenta la idea de que no hay atajos y de que cada mejora significativa exige optimizar hardware, software y operación a la vez. “Los detalles importan”, insiste, antes de recordar que AWS trabaja con NVIDIA desde hace más de quince años y que investigan uno por uno los reinicios de GPU que otros proveedores aceptan como parte del funcionamiento normal.
Este énfasis en la fiabilidad no es un matiz. AWS intenta diferenciarse en un punto donde la competencia es intensa: la capacidad de operar clústeres a gran escala sin interrupciones, un factor que determina los costes reales de entrenamiento y el tiempo de entrega de nuevos modelos. Esa es la base sobre la que presenta la nueva generación de instancias con arquitecturas Blackwell.
P6e.GB200 y P6e.GB300: lo que ocurre cuando la GPU deja de ser un recurso aislado
AWS recuerda que fue el primer proveedor en ofrecer GPUs de NVIDIA en la nube y refuerza que sigue siendo, en sus palabras, “el mejor lugar para ejecutar GPU a escala”. El anuncio de la generación P6, basada en Blackwell, sigue esa línea.
Los nuevos P6e.GB200 Ultra Server ofrecen más de 20 veces el cómputo de su predecesor P5en. Para los clientes que entrenan modelos de gran tamaño, esto significa reducir la distancia entre experimentación y producción, y en ocasiones la posibilidad de intentar configuraciones que antes eran inviables por coste o tiempo. El siguiente paso llega apenas minutos después: P6e.GB300, construido sobre la última plataforma NVL72 de NVIDIA, diseñado para cargas que exigen no solo potencia bruta, sino coherencia y estabilidad en clústeres masivos.
El argumento de Garman se refuerza al mencionar que OpenAI y NVIDIA ejecutan parte de sus propios clústeres de IA en AWS utilizando servidores Ultra con cientos de miles de chips, con capacidad de escalar hasta decenas de millones de CPUs para flujos de trabajo de AGI. No es solo un mensaje comercial, sino una forma de dar credibilidad al rendimiento que la compañía reclama.
AI Factories: la infraestructura de IA se acerca al cliente
Entre los anuncios más estratégicos podemos mencionar AWS AI Factories, una respuesta directa a un fenómeno que se intensifica: gobiernos y organizaciones buscan capacidades avanzadas de IA que puedan ejecutarse bajo sus propias normas de soberanía, gobernanza y protección de datos.
Las AI Factories permiten desplegar infraestructura de IA de AWS —con Trainium, GPUs de NVIDIA, SageMaker y Bedrock— dentro del centro de datos del cliente, operando como una “región privada” dedicada exclusivamente a una organización.
El valor no reside solo en mover hardware a otra ubicación, sino en trasladar consigo el modelo operacional: aislamiento, escalabilidad, capacidad de actualización y gobierno. La propuesta intenta resolver un dilema que muchas empresas y administraciones no logran resolver con la nube pública: cómo adoptar IA avanzada sin renunciar a sus estándares de soberanía, cumplimiento o segregación física.
El interés se enmarca en el acuerdo existente con Humayn, en Arabia Saudí, para crear una zona dedicada de IA que cumpla requisitos locales de privacidad y estándares gubernamentales. Según Garman, ese proyecto despertó interés en otras administraciones que buscaban algo similar.
Trainium como apuesta estratégica: del millón de chips al salto generacional
La keynote de Garman profundiza más en Trainium, el chip diseñado por AWS específicamente para cargas de IA. La compañía ha desplegado más de un millón de unidades en tiempo récord y subraya que la mayor parte de la inferencia en Amazon Bedrock ya funciona sobre Trainium, incluida toda la inferencia de los modelos más recientes de Claude.
La parte interesante del discurso no está en la cifra —aunque relevante—, sino en la reivindicación de que Trainium 2 no solo ofrece eficiencia de entrenamiento, sino que, según Garman, es el mejor sistema del mundo para inferencia, lo que rompe con la idea de que estos chips están diseñados solo para fases iniciales del ciclo de IA.
Ese contexto prepara el terreno para el anuncio de Trainium 3 Ultra Servers, construidos con el primer chip de IA de 3 nanómetros disponible en AWS. El salto es significativo:
- 4,4 veces más cómputo,
- 3,9 veces más ancho de banda de memoria,
- cinco veces más tokens por megavatio.
Y en su configuración más amplia, 144 chips conectados por switches neuronales personalizados, capaces de ofrecer 362 petaflops FP8 y más de 700 TB/s de ancho de banda en un único dominio de escalado.
La demostración incluye un ejemplo con un modelo GPT-OSs 120B: al pasar de Trainium 2 a Trainium 3, AWS obtiene más de cinco veces más tokens por megavatio con la misma latencia por usuario. Es un ejemplo de eficiencia energética que trasciende lo técnico: las empresas están empezando a medir el coste energético de sus modelos como si fuera una métrica operativa más.
Y, en una nota que mira al largo plazo, Garman anuncia que AWS ya trabaja en Trainium 4, que promete seis veces más rendimiento FP4 y cuatro veces más ancho de banda que Trainium 3.
HyperPod, redes EFA y la idea de que “el campus es el nuevo ordenador”
Para entender la ambición de AWS, hay que fijarse en cómo habla Garman del escalado. Recuerda el lema anterior —“el centro de datos es el nuevo ordenador”— para actualizarlo: cuando entrenas los modelos de esta generación, el campus entero se convierte en el ordenador. Ese cambio semántico revela uno técnico: a esta escala, los límites son la latencia, la interconexión y la sincronía entre miles de nodos.
La compañía resalta que su red EFA (Elastic Fabric Adapter) y los sistemas de escalado de HyperPod permiten operar clústeres con cientos de miles de chips. No es un detalle de marketing: HyperPod aparece mencionado también por startups como Ryder, cuyo modelo Palmyra X5 se entrena sobre esa infraestructura, logrando reducir tiempos de seis semanas a dos y mejorando la fiabilidad un 90 %.
El mensaje implícito es que AWS intenta competir en un nivel diferente: ya no solo ofrece instancias rápidas, sino una infraestructura orquestada que convierte miles de GPUs o chips Trainium en un único sistema lógico.
Una infraestructura que alimenta casos extremos: del audio al descubrimiento científico
Las ilustraciones de clientes ayudan a entender cómo es esa escala en escenarios reales. AudioShake, una startup dedicada a la separación de sonido en alta resolución, utiliza la infraestructura de AWS para llevar sus modelos desde un equipo de tres personas hasta una pipeline de producción con componentes de inferencia, almacenamiento y orquestación distribuidos.
El caso más claro de cómo cambia la escala es Lila, que construye “fábricas de ciencia” donde modelos de IA proponen, diseñan y ejecutan experimentos reales de forma autónoma. La empresa afirma operar hoy con trillones de tokens de razonamiento científico y prevé multiplicar esa cifra por cien en pocos años. AWS se presenta como el socio que permite sostener ese ritmo de computación con la estabilidad necesaria.
Estos ejemplos no se introducen como anécdotas, sino como señal de que las nuevas cargas de IA no se comportan como aplicaciones tradicionales: exigen flujos de datos más complejos, cómputo intensivo y una infraestructura capaz de fallar menos que los sistemas que intentan reemplazar.
La visión de AWS: infraestructura como ventaja competitiva en un mercado de IA cada vez más fragmentado
Esta segunda pieza de la trilogía encaja con las otras dos que estamos abordando en Ecuación Digital: la primera, centrada en la estrategia general de AWS y en el giro hacia los agentes; y la tercera, dedicada a los modelos, la personalización y el nuevo stack de desarrollo. Juntas permiten seguir el movimiento completo de la compañía desde la base física hasta las capas donde se construyen y gobiernan los sistemas de IA. En el capítulo dedicado a la infraestructura, lo que aparece es una apuesta por convertir el cómputo en una ventaja estructural capaz de sostener la escala y la estabilidad que exigen los modelos y los agentes que AWS quiere impulsar.
AI Factories sitúan parte de ese cómputo dentro del perímetro del cliente. Trainium busca controlar los costes y la eficiencia energética de la IA masiva. HyperPod y la red EFA convierten miles de dispositivos en un único sistema coherente. Las nuevas generaciones de GPU integradas en P6e.GB200 y P6e.GB300 amplían la compatibilidad con los modelos más grandes del mercado.
En todos los casos, AWS se mueve hacia un punto central: si la IA se convierte en el núcleo operativo de las empresas, la infraestructura que la soporta deja de ser un asunto técnico y pasa a ser estratégico.
Esa es la pieza que conecta con la visión general expresada por Garman: la próxima década se decidirá en la confluencia entre cómputo, modelos y agentes. Y AWS quiere que la base física —los chips, las redes, las regiones, los campus— siga siendo su terreno natural.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
