Estás leyendo
La estrategia de AWS en re:Invent 2025: de la nube a los agentes de IA empresariales

La estrategia de AWS en re:Invent 2025: de la nube a los agentes de IA empresariales

  • AWS usa re:Invent 2025 para redefinir su estrategia de IA: de la infraestructura en la nube a un ecosistema de agentes empresariales, con Bedrock, Agent Core y Nova en el centro.
Matt Garman, CEO de AWS - re:Invent 2025

AWS re:Invent 2025 marca para AWS un punto de transición: la compañía coloca a los agentes de IA en el centro de su hoja de ruta y los vincula con cada capa de su plataforma, desde el hardware hasta las aplicaciones empresariales. Matt Garman abre la keynote recordando el tamaño del negocio, 132.000 millones de dólares y un crecimiento del 20 % interanual, con 22.000 millones añadidos en un solo año, más que la facturación anual de más de la mitad del Fortune 500.

La foto de base es de volumen y de alcance. S3 almacena ya más de 500 billones de objetos y cientos de exabytes, con 200 millones de peticiones por segundo; más de la mitad de la CPU añadida en la nube procede de Graviton por tercer año consecutivo; Bedrock mueve inferencias de IA para más de 100.000 empresas. Sobre esa escala, Garman introduce el mensaje de fondo: la compañía no está solo vendiendo capacidad de cómputo, está intentando rediseñar cómo se construye software y cómo trabajan los equipos.

El discurso se apoya en un dato menos visible, pero relevante para entender la apuesta en IA: AWS asegura haber desplegado más de un millón de chips Trainium y haber acelerado la ampliación de sus centros de datos hasta alcanzar 3,8 gigavatios de nueva capacidad en un año, sobre una red privada de 9 millones de kilómetros de cable óptico. No es un detalle técnico; es el argumento de que la compañía controla la base física necesaria para sostener el siguiente salto.

Matt Garman, CEO de AWS - re:Invent 2025 - La Ecuación Digital
Matt Garman, CEO de AWS – re:Invent 2025 – La Ecuación Digital

Una estrategia de AWS apoyada en escala, seguridad y ecosistema

Antes de hablar de IA, Garman refuerza tres elementos clásicos de la narrativa de AWS: escala, seguridad y partners. El mapa incluye 38 regiones, 120 zonas de disponibilidad y planes para nuevas regiones, con una red privada lo bastante extensa como para “ir de la Tierra a la Luna y volver once veces”.

La seguridad aparece como “prioridad uno”, ejemplificada con la elección de AWS por parte de la comunidad de inteligencia de Estados Unidos, el traslado de los mercados de Nasdaq a la nube de Amazon o la transformación digital de Pfizer. En el discurso, estos casos no son solo logos: funcionan como prueba de que la plataforma es aceptable para sectores regulados, lo que después facilita que el relato sobre agentes de IA no parezca una experimentación marginal.

El tercer pilar es el ecosistema. Garman agradece a integradores, ISV y proveedores SaaS, y reserva un apartado específico para las startups: afirma que más unicornios se han construido sobre AWS que en cualquier otra plataforma, y que más de la mitad de las startups financiadas por VCs de primer nivel corren en su nube. El mensaje implícito es que la innovación en IA —y en particular los nuevos modelos y agentes— se está incubando dentro de su infraestructura.

Matt Garman, CEO de AWS - re:Invent 2025 - La Ecuación Digital
Matt Garman, CEO de AWS – re:Invent 2025 – La Ecuación Digital

De asistentes a agentes: el nuevo marco mental para la IA

La parte más nítida del giro estratégico llega cuando Garman intenta responder a una contradicción que muchos clientes le trasladan: la promesa de la IA es enorme, pero los retornos aún no están a la altura.

El diagnóstico es que la primera ola de proyectos se ha centrado en asistentes y chatbots, útiles pero limitados. Según Garman, el valor empieza a materializarse cuando esos asistentes se convierten en agentes de IA capaces de ejecutar tareas y automatizar procesos de forma autónoma. Lo define como un punto de inflexión comparable a la llegada de internet o de la propia nube, y se atreve con una cifra aspiracional: “habrá miles de millones de agentes dentro de cada empresa y en cada campo imaginable”.

Los ejemplos que cita no son futuristas: agentes que aceleran descubrimientos en salud, mejoran el servicio al cliente, optimizan la gestión de nóminas o multiplican por diez el impacto de ciertos roles al liberar tiempo para crear. La tesis es que el cambio estratégico de AWS consiste en construir el stack completo —infraestructura, modelos, datos, plataforma de agentes y aplicaciones— para que ese escenario sea alcanzable en producción, no solo en demos.

AWS re:Invent 2025 - La Ecuación Digital
AWS re:Invent 2025 – La Ecuación Digital

Infraestructura como política: AI Factories y soberanía de la IA

La estrategia de AWS en infraestructura no se limita a presentar nuevos tipos de instancia o más GPUs. En la keynote, Garman insiste en que no hay atajos: para ofrecer “el mejor rendimiento y coste de la industria” es necesario optimizar cada capa, desde el hardware a la operación del centro de datos.

En ese marco sitúa dos mensajes clave. El primero es que AWS se reivindica como el lugar más estable para ejecutar grandes clústeres de GPU, hasta el punto de mencionar que trabajan con NVIDIA desde hace 15 años y que investigan cada reinicio de GPU “uno por uno” para mejorar la fiabilidad. El segundo, más estratégico, es el lanzamiento de AWS AI Factories: despliegues dedicados de infraestructura de IA de AWS en centros de datos del cliente, que operan “como una región privada” con acceso a Trainium y GPUs de NVIDIA, manteniendo las garantías de seguridad y soberanía que exigen gobiernos y grandes organizaciones.

Este movimiento encaja con el mensaje general: si los agentes van a ser críticos en procesos sensibles, parte de esa capacidad tendrá que residir cerca de los datos, bajo condiciones de aislamiento y regulación particulares. Las AI Factories son la respuesta de AWS para no perder esos casos de uso frente a despliegues on-prem tradicionales.

AWS re:Invent 2025 - La Ecuación Digital
AWS re:Invent 2025 – La Ecuación Digital

Bedrock, modelos y datos: Nova y Nova Forge como piezas de control

Sobre la base de infraestructura, Garman coloca Bedrock como la capa donde se juega la flexibilidad de los clientes. AWS se presenta como un orquestador de modelos de múltiples proveedores —Gemma, MiniMax M2, Nemotron de NVIDIA o los nuevos modelos de Mistral— junto a su propia familia Amazon Nova.

En la keynote subraya que Bedrock no solo crece en número de clientes, sino en volumen de uso: más de cincuenta organizaciones han procesado ya más de un billón de tokens cada una en la plataforma. La idea que se deja caer sin decirlo así es que la batalla de los modelos se está moviendo del “quién tiene el modelo más grande” al “quién controla la plataforma donde esos modelos se consumen y personalizan”.

Ahí encaja Nova 2, con sus variantes Lite, Pro, Sonic y AMI, como respuesta de casa a las necesidades de razonamiento, coste y voz, pero la pieza realmente estratégica es Amazon Nova Forge. Nova Forge introduce el concepto de open training models: acceso exclusivo a checkpoints de entrenamiento de la familia Nova y capacidad de mezclar datos propietarios del cliente con el dataset curado por Amazon en distintas fases del preentrenamiento.

En la práctica, esto permite que una empresa integre su histórico de diseños, fallos, notas de revisión o restricciones de fabricación en el propio proceso de entrenamiento, generando modelos derivados —las llamadas novellas— que entienden en profundidad ese dominio sin perder la capacidad de razonamiento general.

Garman ilustra el enfoque con Reddit: los intentos de ajustar modelos existentes para moderar contenido en múltiples dimensiones de seguridad no daban el nivel de precisión requerido; al integrar datos propios en el preentrenamiento con Nova Forge, Reddit consigue por primera vez un modelo que cumple sus objetivos de precisión y coste con una operación más sencilla.

El mensaje subyacente es claro: AWS quiere que las empresas construyan “sus” modelos estratégicos sin abandonar la plataforma de la nube de Amazon.

AWS re:Invent 2025 - La Ecuación Digital
AWS re:Invent 2025 – La Ecuación Digital

Agent Core como sistema operativo de la era de los agentes

Si la infraestructura y los modelos son las dos primeras capas, el tercer bloque estratégico es Agent Core, presentado como “la plataforma agentic más avanzada” para construir, desplegar y operar agentes de forma segura a escala.

Garman desglosa sus componentes: un runtime serverless aislado por sesión, una memoria de corto y largo plazo que permite a los agentes aprender con el tiempo, un gateway para descubrir herramientas y datos, un sistema de identidad para controlar qué puede acceder a qué, capacidades de observabilidad en tiempo real y herramientas fundamentales como un intérprete de código seguro o un navegador gestionado.

Agent Core está diseñado, insiste, para ser modular y abierto: puede trabajar con frameworks externos como LangChain o Crew AI y con modelos alojados dentro o fuera de Bedrock. La jugada es convertirlo en el “sistema operativo” de los agentes, independientemente del modelo subyacente.

Para reforzar la idea, Garman recurre a casos de uso: Nasdaq evita construir su propia infraestructura y se concentra en agentes que operan en áreas críticas del negocio; Bristol-Myers Squibb reduce de cuatro-seis semanas a menos de una hora la evaluación de 10.000 compuestos; Workday introduce un agente de planificación que recorta un 30 % el tiempo dedicado al análisis rutinario.

El punto débil de los agentes, reconoce, es la imprevisibilidad. Por eso introduce dos nuevos bloques estratégicos: Policy y Evaluations. Policy permite definir en lenguaje natural reglas que luego se traducen al lenguaje de autorización Cedar, y que se evalúan en milisegundos entre el agente y las herramientas o datos, para controlar qué acciones puede ejecutar cada agente en cada contexto.

Evaluations, por su parte, automatiza la evaluación continua de calidad con 13 evaluadores preconstruidos (corrección, utilidad, seguridad, adecuación a marca…) y la integración en CloudWatch junto a las métricas operativas. La combinación de ambos intenta responder a la pregunta que sobrevuela toda la keynote: cómo desplegar agentes autónomos en casos de alto valor sin perder el control.

Te puede interesar
Orange conecta el primer minibús autónomo de Mercamadrid a su red 5G SA

AWS re:Invent 2025 - La Ecuación Digital
AWS re:Invent 2025 – La Ecuación Digital

Clientes como ensayo general de la estrategia: Sony, Adobe, Ryder y las startups

Buena parte de la keynote utiliza testimonios de clientes para probar que la estrategia no es teórica. Sony vincula su transformación, desde una compañía de electrónica a un grupo de entretenimiento global, con una plataforma de datos en AWS que ahora sirve de base para incorporar capacidades de IA responsables en juegos, música y cine, y para aplicar Nova Forge en procesos de cumplimiento que aspiran a ser 100 veces más eficientes.

Adobe, por su lado, explica cómo entrena sus modelos Firefly en instancias P5 y P6, almacena datos en S3 y FSx for Lustre, y usa Agent Core y Kiro para acelerar la migración de clientes de comercio electrónico y desplegar asistentes de IA en productos como Photoshop o Acrobat. Afirma que el 99 % del Fortune 100 ha usado IA de Adobe y que la combinación de su suite con la infraestructura de AWS permitirá redefinir experiencias digitales para miles de millones de personas.

En el lado startup, AudioShake utiliza la infraestructura de AWS para industrializar su tecnología de separación de audio, pasando de un equipo de tres personas a un servicio capaz de operar en entornos como contact centers o aplicaciones de accesibilidad. Gradial se apoya en Bedrock y Nova para orquestar agentes que automatizan operaciones de contenido en marketing; Ryder construye una plataforma de trabajo agentic sobre sus LLM propios y Bedrock, apoyándose en HyperPod y en la integración con los guardrails de Bedrock.

Para la audiencia empresarial, el mensaje es que la estrategia de AWS está siendo probada en escenarios muy distintos, desde biología computacional hasta compliance publicitario.

Agentes “de la casa”: Amazon Qwik, Connect y la modernización con Transform

AWS también se reserva una parte del relato para sus propios agentes “de producto”. Amazon Qwik se presenta como un agente corporativo pensado para empleados que combina capacidades de BI, investigación profunda con citaciones y automatización de tareas diarias mediante “quick flows”. Integra datos estructurados de BI y bases de datos con fuentes como Microsoft 365, Jira, ServiceNow, Salesforce o repositorios de documentos en SharePoint, Google Drive o Box.

Garman destaca que cientos de miles de empleados de Amazon lo utilizan ya y que algunos equipos completan tareas en una décima parte del tiempo anterior, incluyendo casos como el equipo fiscal interno, que consolida fuentes de datos de auditoría y normativa para seguir cambios regulatorios sin escribir código.

En atención al cliente, Amazon Connect se reivindica como una plataforma de contact center en la nube que ya ha superado los 1.000 millones de dólares de run rate anual, con decenas de miles de clientes. Connect combina autoservicio basado en IA con recomendaciones en tiempo real para agentes humanos, y aparece como otra muestra de cómo la compañía empaqueta capacidades agentic en soluciones verticales listas para adopción masiva.

La pieza que completa el plano estratégico es AWS Transform. Nació para ayudar a migrar mainframes, VMware o .NET a la nube, pero en la keynote se amplía con Transform Custom, que permite crear agentes de transformación de código para prácticamente cualquier tecnología, incluida aquella que solo existe dentro de una empresa. Garman menciona casos de migraciones de Angular a React, scripts de VBA a Python o shell scripts a Rust, y proyectos que pasan de dos semanas a tres días.

El hilo conductor es evidente: si los agentes van a protagonizar la próxima década, AWS quiere ser quien modernice el legado, quien proporcione los modelos y quien ofrezca la plataforma donde esos agentes se definen, gobiernan y ejecutan.

Un cambio que exige reescribir cómo trabajan los equipos

La keynote cierra el círculo volviendo a los desarrolladores. Garman recuerda que AWS nació para “dar libertad de inventar” a cualquiera con una idea, reduciendo a casi cero el coste de experimentar. Ahora, sostiene, la IA exige un ajuste similar en las formas de trabajo: no basta con enchufar agentes a los procesos existentes.

El ejemplo que da es muy concreto: un equipo interno que, usando Kiro y agentes, pasa de un proyecto de 30 desarrolladores durante 18 meses a una re-arquitectura realizada por seis personas en 76 días. La clave, explica, fue dejar de “alimentar a los agentes con tareas pequeñas” y empezar a definir objetivos amplios, aumentar el paralelismo en las tareas y aceptar que el cuello de botella eran ya las personas que tenían que desbloquear a los agentes.

En realidad, ese es el mensaje más relevante para un directivo: la estrategia de AWS en re:Invent 2025 no se limita a vender más cómputo o más modelos, sino a empujar a las organizaciones a replantear sus flujos de trabajo, su deuda técnica y su gobierno del dato para un futuro en el que los agentes —propios y de terceros— se conviertan en parte de la estructura operativa diaria.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad