Estás leyendo
HPE impulsa en el Discover Barcelona la estrategia de redes autónomas con IA

HPE impulsa en el Discover Barcelona la estrategia de redes autónomas con IA

  • HPE Discover Barcelona 2025 presenta nuevas soluciones nativas de IA y AIOps unificadas tras la integración de Juniper, ampliando el alcance de sus redes autónomas.
HPE Discover Barcelona 2025

La consolidación del negocio de redes de HPE tras la adquisición de Juniper empieza a mostrar una arquitectura operativa con líneas reconocibles. La compañía presentó en Barcelona un conjunto amplio de funciones nativas de IA y mecanismos de automatización que afectan a toda la cadena, desde los puntos de acceso WiFi y los switches de centro de datos hasta las capas de AIOps distribuidas en la nube y en instalaciones locales. Lo llamativo es la velocidad con la que HPE está ensamblando piezas que, hasta hace unos meses, pertenecían a dos catálogos independientes.

Durante HPE Discover Barcelona 2025 quedó claro que la compañía busca una convergencia más estrecha entre HPE Aruba Networking y HPE Juniper Networking.. Lo que emerge es un sistema operativo distribuido, con IA generativa y analítica integrada, que trata de ofrecer una experiencia uniforme en dominios tradicionalmente separados: computación, almacenamiento, redes y cloud híbrida. El mensaje de fondo apunta a un escenario en el que la infraestructura ya no se gestiona por capas, sino por flujos de datos enlazados.

Rami Rahim, responsable global de Networking en HPE, definió este cambio como una respuesta directa al aumento de dispositivos conectados y a la complejidad de los entornos corporativos. Aunque su declaración pone el acento en la autonomía y el rendimiento, lo relevante es la forma en que HPE materializa esa promesa: con modelos de experiencia, razonamiento agéntico y una capa de observabilidad que intenta actuar antes de que los equipos de TI noten un problema.

Un mismo lenguaje de AIOps para Aruba y Mist

Uno de los movimientos más visibles es la integración de capacidades entre HPE Aruba Networking Central y HPE Juniper Networking Mist. La palabra clave IA en redes aparece enlazada a ambos sistemas a través de un marco común de microservicios capaz de transportar funciones autónomas en los dos sentidos. El resultado es una alineación operativa que no estaba garantizada al inicio de la integración.

El Large Experience Model de Mist, entrenado con miles de millones de métricas procedentes de aplicaciones de colaboración, se incorpora ahora a Aruba Central. En paralelo, la tecnología Agentic Mesh de Aruba llega al ecosistema Mist para reforzar la detección de anomalías y el análisis causal. Lo interesante aquí no es solo el intercambio de funciones, sino la intención de que ambas plataformas compartan una visión organizativa común, algo poco habitual en integraciones de esta escala.

Además, HPE introduce puntos de acceso WiFi-7 que operan indistintamente en Aruba Central y Mist. Esta interoperabilidad sugiere que la compañía quiere garantizar continuidad tecnológica ante ciclos de renovación cada vez más cortos, en particular en empresas que buscan proteger inversiones ya realizadas.

Aruba Central On-Premises 3.0 añade otro matiz: las organizaciones con políticas estrictas de residencia de datos podrán acceder a IA generativa y analítica sin renunciar a un entorno local, algo que no siempre está disponible en plataformas cloud-first. La interfaz rediseñada y la corrección proactiva basada en IA pretenden reducir la fricción operativa, aunque será el volumen real de telemetría y la calidad del modelo lo que determine su impacto.

Redes para cargas de trabajo de IA que migran al edge

La compañía también sitúa la infraestructura física en el centro de la conversación. La razón es evidente: la inferencia de IA está desplazándose hacia el edge por motivos de latencia y privacidad, lo que presiona a los switches y routers para absorber cargas de tráfico más densas sin disparar el consumo energético.

El nuevo HPE Juniper Networking QFX5250, basado en el silicio Broadcom Tomahawk 6, incorpora un ancho de banda de 102,4 Tbps y se posiciona como un nodo crítico para clústeres GPU. El uso de refrigeración líquida y la integración con AIOps muestran un diseño orientado a despliegues de gran escala, donde la eficiencia operativa empieza a ser tan relevante como la pura capacidad de switching.

El router MX301, con 1,6 Tbps en 1RU, responde a una tendencia menos visible pero creciente: la necesidad de enrutar tráfico procedente de procesos de inferencia cercanos a la fuente de datos. Aplicaciones industriales, transporte o redes de sensores requieren transmitir resultados y no solo raw data, y eso obliga a optimizar los puntos de borde.

Extensión de alianzas con NVIDIA y AMD: una red que quiere ser estándar

HPE también reforzó sus colaboraciones con NVIDIA y AMD. En el caso de NVIDIA, se amplía la interconexión DCI y el acceso periférico para fábricas de IA, aprovechando las plataformas MX y PTX de Juniper. Lo relevante no es solo la velocidad o la latencia, sino la posibilidad de unir clústeres remotos y nubes diversas en espacios de trabajo coherentes sin recurrir a arquitecturas propietarias.

En paralelo, la arquitectura AMD Helios introduce un rack llave en mano con una red Ethernet escalable capaz de entregar 260 TB/s y 2,9 exaflops FP4. Esta solución se apoya en switches desarrollados con Broadcom y software de HPE Juniper Networking, que intentan demostrar que Ethernet puede competir con interconexiones especializadas en tareas de entrenamiento. Aunque las cifras llaman la atención, la incógnita reside en la consistencia que pueda ofrecer el sistema cuando escale más allá del rack.

AIOps como eje para un centro de mando híbrido

En la parte de software, HPE impulsa una narrativa de integración total que va desde los servidores hasta la nube pública. Las nuevas versiones de OpsRamp se conectan con telemetría de HPE Compute Ops Management, Aruba Central y Apstra. Esto plantea un escenario donde los equipos de TI pueden consolidar la visibilidad en una sola interfaz, algo que reduce duplicidades pero exige confianza en los modelos que interpretan esos datos.

La disponibilidad de Apstra Data Center Director y del software Data Center Assurance dentro de GreenLake amplía el alcance hacia la garantía predictiva. Apstra ya trabajaba sobre intenciones de red; combinado con AIOps y el análisis causal agéntico, puede convertirse en una pieza fundamental para detectar inconsistencias lógicas en entornos que cambian con rapidez.

Te puede interesar
IGF Spain 25

El soporte para Model Context Protocol y agentes de terceros abre otra puerta: la posibilidad de orquestar automatizaciones sin código que conecten sistemas heterogéneos. Aunque esta promesa suena atractiva para organizaciones que buscan reducir dependencias, también implica que la calidad del contexto suministrado por cada agente será determinante para evitar errores en cadena.

GreenLake Intelligence incorpora nuevos agentes dedicados a sostenibilidad, bienestar operativo y análisis causal. Aunque podrían parecer funciones de nicho, en realidad apuntan a un objetivo más amplio: generar una capa transversal de inteligencia que funcione por encima de los silos clásicos de TI.

Un modelo financiero que intenta acelerar la transición

La compañía ha introducido financiación al 0 % para licencias de AIOps y un programa de leasing con un incentivo equivalente al 10 % de ahorro en efectivo para redes preparadas para IA. La inclusión de un servicio opcional de retirada de equipos de distintos fabricantes muestra que HPE quiere capturar clientes que necesiten actualizar infraestructuras antiguas sin asumir costes iniciales elevados. El aspecto menos evidente es que este modelo también acelera la adopción de plataformas gestionadas, que es donde la empresa concentra su estrategia de ingresos recurrentes.

Las fechas de disponibilidad, distribuidas entre finales de 2025 y mediados de 2026, revelan una hoja de ruta escalonada en la que switches, software y capacidades de integración no llegarán de manera simultánea. Aunque puede generar cierta espera para organizaciones que quieran un despliegue completo, también sugiere que HPE está ensamblando una plataforma que aún está evolucionando.

Proyección: redes autónomas en un mercado que se reorganiza

El panorama que dibuja HPE combina IA generativa, automatización agéntica y hardware optimizado para cargas de trabajo distribuidas. La presión competitiva es evidente, especialmente frente a proveedores que también integran IA en la operación de redes. Sin embargo, la combinación de Aruba y Juniper permite a la compañía abordar entornos corporativos amplios sin tener que mantener líneas de producto separadas.

Queda por ver cómo se adaptarán estas soluciones a empresas con requisitos de cumplimiento estrictos o con arquitecturas híbridas arraigadas. Aun así, el movimiento de HPE deja claro que el terreno de juego ya no está en el rendimiento aislado de un switch o de un sistema de gestión, sino en la capacidad de interpretar señales en tiempo real y de actuar sin intervención constante.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad