Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
Cisco Live EMEA 2026 arranca en Ámsterdam con un mensaje claro: la siguiente fase de la inteligencia artificial no depende solo de modelos, sino de la capacidad de las empresas para desplegar y operar infraestructuras preparadas para sistemas agénticos. Ese planteamiento articula los anuncios que Cisco presentará a lo largo de esta semana, que abarcan nuevos chips, sistemas de red, modelos operativos y herramientas de seguridad orientadas a la AI agéntica.
Este enfoque se inscribe en un momento en el que muchas organizaciones europeas empiezan a comprobar que el salto desde pilotos de inteligencia artificial hacia despliegues a escala introduce problemas que no se resuelven únicamente con mejores modelos. La operación diaria, la gestión de entornos híbridos, la protección de datos sensibles y la disponibilidad de talento técnico pasan a ser factores determinantes, especialmente en Europa, Oriente Medio y África, donde la adopción de AI avanza bajo un marco regulatorio y geopolítico cada vez más exigente.
De los chatbots a la era agéntica
La transición desde asistentes conversacionales hacia sistemas de inteligencia artificial capaces de ejecutar tareas y flujos de trabajo de forma autónoma está alterando los supuestos tradicionales sobre los que se han diseñado redes, plataformas de seguridad y modelos de operación. A esta evolución se suma el avance de la llamada AI física, ligada a automatización y robótica, que empieza a tener impacto tangible en entornos industriales, logísticos y sanitarios.
Este cambio de escala introduce exigencias técnicas y operativas distintas a las de las aplicaciones digitales convencionales. Las cargas de trabajo de AI son especialmente sensibles a la latencia, la pérdida de paquetes y la variabilidad, mientras que los clústeres de GPUs elevan los costes asociados a cualquier ineficiencia. Al mismo tiempo, los flujos de trabajo agénticos amplían la superficie de riesgo, con patrones de tráfico y comportamientos que no encajan bien con los modelos de seguridad diseñados para aplicaciones SaaS tradicionales.
En ese contexto se sitúan los anuncios de Cisco Live EMEA 2026, que abordan la infraestructura como una condición necesaria para escalar la inteligencia artificial en entornos empresariales sin comprometer rendimiento, control operativo ni protección de los sistemas.
Silicon One G300 y el regreso del silicio como palanca estratégica
El anuncio más técnico, pero también el más simbólico, es la presentación de Silicon One G300, un chip de conmutación de 102,4 terabits por segundo diseñado para redes de centros de datos orientadas a cargas de trabajo de AI. Según la compañía, el G300 permite aumentar la utilización de red en un 33% y reducir en un 28% el tiempo de finalización de trabajos frente a arquitecturas no optimizadas, un dato relevante en entornos donde cada minuto de GPU tiene un coste directo.
El G300 traslada al ámbito del switching parte del enfoque ya aplicado previamente al routing, con capacidad para absorber tráfico irregular, reaccionar con mayor rapidez ante fallos de enlace y evitar pérdidas de paquetes que bloqueen procesos de entrenamiento o inferencia. La programabilidad del silicio busca además adaptarse a futuras evoluciones de los patrones de tráfico de AI sin necesidad de sustituir hardware.
Sobre esta base se construyen nuevos sistemas de las familias Cisco N9000 y Cisco 8000, disponibles tanto en versiones refrigeradas por aire como en diseños totalmente líquidos. La compañía señala que estas configuraciones permiten concentrar en un solo sistema el ancho de banda que antes requería varios equipos de generaciones anteriores, con mejoras relevantes en eficiencia energética en determinados escenarios.
La discusión sobre sostenibilidad y consumo energético en AI se desplaza así desde el plano exclusivamente algorítmico hacia decisiones de arquitectura de red, óptica y refrigeración. En este ámbito se enmarcan también las nuevas ópticas de 1,6T y los módulos lineales, que reducen el consumo de los transceptores al trasladar parte de la complejidad al silicio y mejorar la fiabilidad en entornos térmicamente exigentes.
De los hyperscalers a la empresa
Uno de los cambios de fondo que recorre el evento es que este tipo de tecnología deja de ser exclusiva de los grandes hyperscalers. Las capacidades desarrolladas inicialmente para infraestructuras cloud a gran escala empiezan a trasladarse a entornos empresariales, donde las organizaciones buscan desplegar cargas de trabajo de AI en sus propios centros de datos.
La estrategia pasa por empaquetar silicio, sistemas, software de gestión y observabilidad en soluciones más integradas. En este contexto se presenta Nexus One, la plataforma de gestión unificada que agrupa capacidades antes dispersas y amplía su alcance a más modelos de switches y a despliegues tanto on-premises como en la nube.
Para el mercado europeo, resulta especialmente relevante la integración nativa con herramientas de observabilidad que permiten correlacionar telemetría de red con el comportamiento de cargas de trabajo de AI sin necesidad de mover datos fuera del entorno. Esta aproximación responde a requisitos de cumplimiento normativo y a despliegues sensibles a la soberanía del dato.
AgenticOps: operar infraestructuras a escala de máquinas
Si el silicio define el plano físico, AgenticOps introduce un cambio en el modelo operativo. El planteamiento se basa en agentes capaces de diagnosticar, optimizar y, bajo supervisión humana, ejecutar acciones en redes, seguridad y observabilidad.
La premisa es que la complejidad de las infraestructuras crece más rápido que la capacidad de los equipos humanos para gestionarlas de forma manual. Al combinar telemetría de networking, seguridad, aplicaciones, colaboración y observabilidad, los agentes pueden analizar incidentes que atraviesan múltiples dominios y proponer acciones sin que el operador tenga que aislar previamente la causa del problema.
En campus y sucursales, estas capacidades se traducen en troubleshooting automatizado, optimización continua de radiofrecuencia, validación de cambios y creación de flujos personalizados. En centros de datos, la correlación temprana de eventos busca anticipar incidencias tanto en cargas tradicionales como en entornos de AI. En seguridad, los agentes analizan tráfico, capacidad y configuración para proponer ajustes alineados con políticas de zero trust.
El modelo se apoya de forma explícita en la supervisión humana, con mecanismos de aprobación y reversión que evitan automatismos no controlados. El objetivo no es sustituir perfiles especializados, sino ampliar su alcance en un contexto de escasez de talento.
Seguridad para la era agéntica
La seguridad constituye el tercer gran bloque de anuncios. Cisco amplía su solución AI Defense con capacidades de gobernanza de la cadena de suministro de AI, protección en tiempo de ejecución y controles específicos para interacciones entre agentes y herramientas externas.
Entre las novedades figuran mecanismos para inventariar modelos y dependencias, evaluar riesgos asociados a componentes de terceros y simular ataques más complejos mediante técnicas de red teaming algorítmico multilingüe. A ello se suman guardrails en tiempo real capaces de detectar comportamientos inseguros o intentos de manipulación de agentes.
En paralelo, la evolución de la arquitectura SASE incorpora detección y optimización de tráfico de AI, inspección basada en intención y políticas unificadas entre SD-WAN y SSE. La tesis de fondo es que una seguridad bien integrada puede facilitar la adopción de AI al reducir incertidumbres operativas y de cumplimiento.
El portfolio se completa con la integración de criptografía post-cuántica en routers y switches, anticipando requisitos regulatorios y de confidencialidad a largo plazo, especialmente relevantes en sectores públicos e infraestructuras críticas.
Soberanía, confianza y el factor EMEA
Más allá de los anuncios tecnológicos, Cisco Live EMEA 2026 incorpora de forma explícita un debate sobre soberanía, confianza y control del dato, cada vez más presente en la agenda digital europea. Las organizaciones demandan mayor capacidad de decisión sobre dónde residen sus datos, cómo se gestionan y bajo qué condiciones se accede a ellos, especialmente en sectores regulados.
Esta preocupación se refleja en la ampliación de opciones de despliegue on-premises, air-gapped e híbridas, así como en el refuerzo de los modelos de soporte asociados a infraestructuras soberanas, con centros de servicios nacionales y procesos segregados para entornos con requisitos estrictos de seguridad y cumplimiento.
En Europa, Oriente Medio y África, este debate se cruza además con una realidad estructural: la región no concentra grandes hyperscalers globales, pero sí un ecosistema creciente de infraestructuras soberanas, neoclouds y proyectos nacionales de inteligencia artificial. En ese escenario, la discusión se desplaza desde la simple elección de modelos hacia la gobernanza del dato, la gestión de lenguas y contextos locales y la capacidad de habilitar innovación sin dependencia estructural de plataformas externas.
Un cambio de ritmo
El tono general del evento refleja un momento de intensa actividad tecnológica, con un ritmo de lanzamientos que apunta a una mayor coordinación entre silicio, sistemas, software, operaciones y seguridad. El foco no está solo en la presentación de nuevos productos, sino en su articulación como parte de un conjunto coherente.
Esa coherencia convive con una estrategia que combina integración y apertura. La plataforma está diseñada para ofrecer una integración profunda, pero sin excluir la convivencia con entornos heterogéneos, arquitecturas de terceros y ecosistemas ya existentes.
El equilibrio entre integración y acoplamiento flexible aparece así como un rasgo central en un contexto en el que la mayoría de las organizaciones operan infraestructuras mixtas y buscan evitar dependencias exclusivas de un único proveedor.
Lo que queda abierto
La infraestructura para la IA agéntica dibuja un marco tecnológico coherente sobre el papel, pero su adopción a escala estará condicionada por factores como el coste energético, la disponibilidad de talento y la evolución regulatoria. La capacidad de los modelos operativos basados en agentes para compensar la escasez de especialistas deberá contrastarse en despliegues amplios, mientras que la soberanía implica decisiones técnicas y organizativas de largo alcance.
En este escenario, el foco se desplaza desde los modelos y los casos de uso hacia la arquitectura, la operación y los mecanismos de control que permiten sostener la inteligencia artificial en entornos reales. La infraestructura deja de ser un elemento de soporte para convertirse en una variable que condiciona el alcance, la velocidad y el grado de confianza con el que las organizaciones pueden avanzar.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
