Estás leyendo
El nuevo stack de IA de AWS en re:Invent 2025: modelos, personalización y agentes

El nuevo stack de IA de AWS en re:Invent 2025: modelos, personalización y agentes

  • AWS presenta un stack completo de IA en re:Invent 2025: modelos Nova 2, personalización con Nova Forge y una capa agentic diseñada para operar en entornos empresariales.
Matt Garman, CEO de AWS - re:Invent 2025 - La Ecuación Digital

La conversación sobre IA en AWS lleva años girando en torno a modelos y servicios, pero en re:Invent 2025 la compañía muestra una visión más amplia. Matt Garman describe una capa agentic que se apoya en dos pilares que avanzan en paralelo: una familia de modelos capaz de razonar, interpretar y generar en distintos medios, y un sistema de personalización entrenado para integrar datos corporativos en el corazón de esos modelos. Los tres elementos —agentes, modelos y personalización— forman un mismo diseño con ambición operativa.

AWS describe este movimiento como un cambio en la forma en que la IA se integra en los sistemas y procesos de las empresas.. Los modelos crecen en capacidad, pero no están pensados para funcionar solos; la personalización deja de ser un ajuste fino superficial y se desplaza hacia capas más profundas del entrenamiento; y los agentes se convierten en la interfaz que absorbe todo ese poder para llevarlo al trabajo diario. Una arquitectura escalonada, no por marketing, sino por necesidad: la IA empieza a operar dentro de las empresas con una mezcla de autonomía, gobernanza y trazabilidad que exige una plataforma más cohesionada.

AWS re:Invent 2025
AWS re:Invent 2025

Una familia de modelos para razonar, interpretar y actuar: Amazon Nova 2

El recorrido por los modelos de AWS comienza con Amazon Nova 2, que aparece como la segunda generación de modelos propios tras el despliegue inicial de Nova. La compañía subraya que los clientes no solo experimentan con ellos: decenas de miles ya los utilizan en producción y más de cincuenta superan el trillón de tokens procesados. Ese volumen de uso marca una diferencia notable en la manera en que Garman presenta la familia: no como promesas, sino como modelos que ya sostienen cargas de trabajo industriales.

La gama Nova 2 no se define por parámetros o tamaños, sino por propósito:

  • Nova 2 Lite, optimizado para velocidad y coste, orientado a tareas de conversación, clasificación y automatización ligera donde la latencia es crítica.
  • Nova 2 Pro, diseñado para razonamiento complejo, toma de decisiones y uso intensivo de herramientas, un ámbito donde la capacidad de seguir cadenas largas de pensamiento se vuelve determinante.
  • Nova 2 Sonic, el primer modelo de la familia especializado en canal completo de voz, con capacidad de interpretar audio y responder en voz con baja latencia, un punto con impacto en sectores como el soporte, los asistentes de campo o las interfaces conversacionales persistentes.
  • Nova 2 AMI, el más ambicioso: un modelo capaz de razonar en texto, imagen, vídeo y audio, y generar tanto texto como imágenes, uniendo disciplinas que normalmente se presentaban como piezas separadas del puzzle de la IA.

La ampliación del catálogo en Bedrock refuerza esa lógica de diversidad. AWS incorpora modelos open weights —Gemma, MiniMax M2, NemoTron— y nuevas variantes de Mistral, como Mistral Large o MiniStrawl3, que expanden el rango de opciones para empresas que buscan equilibrio entre coste, portabilidad y control. Bedrock se presenta como un espacio donde conviven modelos cerrados, modelos propios y modelos abiertos, organizados más por su utilidad que por su clasificación técnica.

Lo que surge de esta estructura es que AWS deja atrás la idea de “el modelo principal” para adoptar un enfoque más pragmático: distintas inteligencias para distintos comportamientos agentic. Y ese matiz es importante, porque el valor de los agentes depende tanto del modelo que ejecutan como de cómo esos modelos se adaptan al dominio específico del cliente.

Nova Forge: cuando la personalización deja de ser ajuste y pasa a ser entrenamiento

Si los modelos son la primera capa del stack cognitivo, Nova Forge es la segunda. La propuesta parte de una pregunta que muchas empresas han repetido durante el último año: cómo obtener modelos que no solo respondan bien, sino que comprendan su negocio con una profundidad que no se logra con un fine-tuning clásico.

El movimiento de AWS consiste en abrir checkpoints de entrenamiento de la familia Nova y permitir al cliente mezclar datos propios dentro del proceso de pre-entrenamiento. No se trata de ajustar un modelo ya terminado, sino de influir en su entrenamiento. Ese matiz altera la posición del cliente en la cadena de valor: deja de ser consumidor de modelos para convertirse en co-creador.

La compañía lo ilustra con un caso industrial que funciona casi como un manual de la propuesta. Un fabricante de infraestructuras críticas requiere un modelo que entienda tolerancias estrictas de diseño, códigos de construcción, patrones de error, requisitos regulatorios y variaciones de materiales. Es información que no está en los datasets públicos. Con Nova Forge, esa empresa puede incorporar décadas de conocimiento interno —desde diagramas técnicos hasta informes de inspección o series históricas de fallos— en etapas específicas del entrenamiento, generando un modelo que razona dentro de un marco de restricciones que ningún asistente genérico podría replicar.

AWS denomina novellas a esos modelos derivados. No son piezas aisladas: pueden ejecutarse directamente sobre Bedrock y conectarse con las capacidades de inferencia de Trainium y con las herramientas de Agent Core, lo que completa el círculo operativo.

El caso de Reddit aparece como ejemplo de cómo esta aproximación resuelve un problema distinto: la moderación de contenido en múltiples dimensiones de seguridad. Los modelos ajustados por fuera nunca alcanzaban el equilibrio entre precisión, coste y consistencia que la plataforma necesitaba. Con Nova Forge, al integrar datos propios en el pre-entrenamiento, Reddit obtiene precisión suficiente para escalar sus sistemas de confianza y seguridad sin elevar de forma desproporcionada los costes de inferencia.

Sony aporta un tercer caso: usa Nova Forge para mejorar procesos de cumplimiento en entornos creativos y de medios, donde los matices contextuales —derechos, permisos, sensibilidad cultural— son demasiado particulares para que un modelo genérico los interprete con exactitud. El objetivo declarado: aspirar a procesos cien veces más eficientes apoyándose en agentes que comprenden esos detalles desde el entrenamiento.

La conclusión que deja este bloque de la keynote es que AWS reorganiza la personalización para que los agentes no operen sobre modelos genéricos, sino sobre inteligencias profundamente alineadas con los datos internos de cada organización.

La capa agentic: un sistema operativo para automatizar decisiones y tareas

En  re:Invent 2025 , la presentación de Agent Core aparece como el punto donde AWS articula su visión más ambiciosa de la IA empresarial. AWS presenta esta plataforma como un runtime serverless capaz de ejecutar agentes en entornos aislados, con memoria, identidad, control de permisos, acceso a herramientas y observabilidad detallada. No se trata de un asistente conversacional, sino de un entorno pensado para que los agentes actúen en nombre de los usuarios o los sistemas.

El runtime se inicia con un ciclo de inferencia y herramientas disponible sesión a sesión, lo que permite orquestar acciones que requieren continuidad. La memoria se divide en corto y largo plazo para que los agentes aprendan de patrones de uso y mantengan coherencia operativa a lo largo del tiempo. El gateway de herramientas permite descubrir APIs, bases de datos, funciones y sistemas sin exponer credenciales directamente. La identidad, integrada en el flujo, asegura que cada acción del agente se realiza con los permisos adecuados. Y la observabilidad, integrada en CloudWatch, permite auditar cada decisión o llamada a herramientas.

Te puede interesar
Matt Garman, CEO de AWS - re:Invent 2025

Esa estructura se completa con capacidades como un intérprete de código seguro y un navegador gestionado, que abren rutas de ejecución imposibles en modelos aislados. Además, Agent Core se presenta como un sistema modular: funciona con modelos alojados en Bedrock, modelos externos vía endpoints privados y marcos de agentes como LangChain o Crew, lo que lo convierte en un punto de integración entre modelos heterogéneos.

Los ejemplos muestran que la capa agentic no es un experimento. Visa la usa para generar documentación técnica a partir de sistemas complejos; National Australia Bank para automatizar análisis operativos y reducir tiempos de ciclo; Rio Tinto para guiar procedimientos con modelos de seguridad integrados; Workday para introducir un agente de planificación capaz de reducir en un 30% el tiempo dedicado a análisis de escenarios. Nasdaq, por su parte, evita construir su propia infraestructura agentic y ejecuta agentes críticos en la plataforma. Y Bristol-Myers Squibb logra reducir de semanas a horas la evaluación científica de compuestos médicos.

AWS introduce dos ampliaciones que apuntan a una misma pregunta: cómo controlar un sistema autónomo. Agent Core Policy permite definir reglas en lenguaje natural que se traducen a políticas formales ejecutadas en milisegundos, determinando qué acciones puede tomar un agente en cada contexto. Y Agent Core Evaluations automatiza la medición continua con trece evaluadores pre-construidos para analizar utilidad, corrección, seguridad, estilo o adherencia a marca, antes y después de cualquier ajuste. La combinación de ambas herramientas coloca a los agentes dentro de un marco operativo gobernable, un requisito para su adopción en sectores regulados.

La keynote muestra además el potencial de agentes autónomos construidos por terceros. El ejemplo más expresivo es el del agente que readecua un componente crítico de infraestructura con solo indicar los objetivos de la tarea. El sistema genera diseños, evalúa alternativas, ejecuta pruebas en silicio y entrega resultados listos para producción. Un ciclo completo que antes requería equipos numerosos y semanas de trabajo.

La integración de modelos, personalización y agentes en el stack de IA de AWS

Lo que Garman presenta no son soluciones independientes. Los modelos proporcionan la inteligencia general; la personalización, el conocimiento profundo del dominio; y los agentes, la capacidad de transformar esa inteligencia en operaciones reales. Ese ensamblaje produce algo distinto a lo que veíamos en anteriores ediciones de re:Invent.

Bedrock se convierte en la plataforma donde se orquesta todo el pipeline cognitivo: seleccionar modelos, personalizarlos con Nova Forge, conectarlos con herramientas y ejecutarlos bajo Agent Core. La visión subyacente es pragmática: para que los agentes funcionen al nivel que las empresas esperan, cada capa debe reforzar a la siguiente.

Las tres piezas de esta trilogía —estrategia, infraestructura y stack cognitivo— muestran cómo AWS intenta construir una IA con un comportamiento sostenible, capaz de operar sin aislarse de los sistemas existentes y con mecanismos de control visibles y verificables. La capa agentic es solo el punto donde se hace evidente, pero la base está en la combinación de chips, modelos, entrenamiento y gobierno.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad