Estás leyendo
Cuando la inteligencia artificial deja de ser un problema de modelos y se convierte en un desafío de infraestructura

Cuando la inteligencia artificial deja de ser un problema de modelos y se convierte en un desafío de infraestructura

  • En Cisco Live EMEA 2026, la conversación sobre IA gira hacia la infraestructura: energía, escala y eficiencia emergen como el verdadero desafío.
Cisco Live EMEA 2026

Durante buena parte del último ciclo tecnológico, la inteligencia artificial se ha explicado desde arriba: modelos más grandes, capacidades emergentes, nuevas aplicaciones. Sin embargo, en la keynote principal de Cisco Live EMEA 2026 el relato se desplaza hacia abajo, hacia una capa menos visible pero cada vez más determinante. La infraestructura, tradicionalmente relegada al plano técnico, emerge como el factor que empieza a condicionar qué organizaciones pueden escalar la IA y cuáles quedarán atrapadas en experimentos limitados.

No se trata de un giro semántico. A medida que la IA entra en una fase más industrial, marcada por agentes autónomos y cargas de trabajo persistentes, la conversación deja de girar en torno a lo que los modelos son capaces de hacer y empieza a centrarse en si existen las condiciones físicas, energéticas y operativas para sostenerlos. En ese cambio de foco se juega buena parte de la próxima década tecnológica.

De la promesa algorítmica a la fricción física

El salto hacia la llamada era agéntica introduce una presión inédita sobre los sistemas que soportan la IA. Frente a los asistentes puntuales, los agentes funcionan de forma continua, toman decisiones, interactúan con otros sistemas y generan flujos de trabajo complejos. Cada uno de ellos consume recursos de manera constante. Escalar este modelo no significa multiplicar usuarios, sino multiplicar procesos activos.

En la apertura del keynote, Gordon Thompson sitúa esta aceleración en un marco más amplio. “El tiempo se ha convertido en la variable más escasa”, advierte, subrayando que las decisiones de infraestructura que se tomen ahora condicionarán la capacidad de competir durante años. El mensaje es claro: el margen para improvisar se reduce al mismo ritmo que aumenta la ambición en IA.

Ese contexto explica por qué la keynote insiste menos en funcionalidades concretas y más en límites estructurales. La IA, sugiere Cisco, ya no choca contra barreras conceptuales, sino contra restricciones muy tangibles: consumo eléctrico, latencia de red, eficiencia operativa y capacidad de interconexión entre sistemas distribuidos.

Gordon Thomson, presidente Cisco EMEA
Gordon Thomson, presidente Cisco EMEA

El centro de datos como “fábrica de tokens”

Uno de los conceptos más reveladores introducidos en el escenario es el de “token generation factory”. Con esta metáfora, Cisco propone leer el centro de datos de IA como una instalación industrial cuyo rendimiento se mide en tokens generados, no en especificaciones aisladas. La competitividad pasa a expresarse en métricas como tokens por dólar o tokens por vatio.

Este cambio de perspectiva tiene implicaciones profundas. Obliga a considerar la infraestructura como una cadena de valor integrada, donde cualquier cuello de botella, desde la red hasta la refrigeración, impacta directamente en la productividad del sistema. La IA deja de ser un problema de software para convertirse en un problema sistémico, donde la eficiencia global importa más que el rendimiento puntual.

Es en este marco donde Cisco introduce su nuevo chip Silicon One G300. No como una carrera por el mayor ancho de banda, sino como una respuesta a la economía de la IA. El chip, con capacidad de hasta 102,4 Tbps, está diseñado para absorber tráfico altamente impredecible y optimizar la utilización de GPU en clústeres de gran escala. Según los datos compartidos en el escenario, permite mejoras de hasta un 28 % en los tiempos de finalización de trabajos y un aumento del 33 % en la utilización de red frente a arquitecturas no optimizadas.

La cifra importa menos que lo que representa: cada punto de eficiencia recuperado se traduce en más capacidad productiva sin aumentar proporcionalmente el consumo energético ni los costes operativos.

Escalar ya no es solo crecer, es coordinar

La keynote dedica una parte sustancial a explicar cómo ha evolucionado la arquitectura de los centros de datos para IA. Primero fue el escalado vertical dentro de una GPU. Después, el escalado horizontal entre GPUs en un mismo servidor. Más tarde, la interconexión de racks completos. Ahora, el reto se desplaza a una fase más compleja: conectar centros de datos separados por cientos de kilómetros para que operen como un único clúster lógico.

Este modelo, conocido como scale-across, introduce exigencias extremas sobre la red. La latencia, la pérdida de paquetes o una interrupción mínima pueden invalidar entrenamientos que consumen millones de euros en energía y tiempo de cómputo. La red deja de ser un canal de transporte para convertirse en un componente activo del rendimiento del sistema.

Durante su intervención, Jeetu Patel lo resume con una idea que atraviesa todo el bloque: “La innovación en IA se está moviendo más rápido que la infraestructura que la sostiene”. El desafío ya no es entrenar modelos más complejos, sino operar sistemas capaces de sostener agentes de forma continua, fiable y a escala.

Jeetu Patel, Presidente y Director de Productos en Cisco
Jeetu Patel, Presidente y Director de Productos en Cisco

Silicio como ventaja estratégica, no como commoditie

En este contexto, Cisco reivindica el control del silicio como una ventaja estratégica. No solo por razones de rendimiento, sino por la capacidad de integrar inteligencia en la propia infraestructura. El concepto de “intelligent collective networking” apunta precisamente a esa capa: una red capaz de gestionar congestión, fallos y variabilidad de manera proactiva, reduciendo el impacto de eventos que, en arquitecturas tradicionales, se traducen en pérdidas de rendimiento difíciles de diagnosticar.

El mensaje subyacente es que la infraestructura para IA no puede construirse únicamente con componentes genéricos. A medida que los centros de datos se convierten en activos críticos, la previsibilidad y la eficiencia pasan a ser tan importantes como la capacidad máxima. En ese equilibrio se juega la viabilidad económica de muchos proyectos de IA.

Energía: el límite silencioso de la IA

Si hay un factor que atraviesa todo el discurso sin convertirse en titular explícito, es la energía. La keynote reconoce de forma implícita que el crecimiento de la IA está chocando con límites físicos: disponibilidad eléctrica, capacidad de refrigeración y sostenibilidad a largo plazo. El despliegue de sistemas completamente refrigerados por líquido y óptica de alta densidad se presenta como una necesidad estructural, no como una mejora incremental.

Reducir el consumo por unidad de cómputo ya no es solo un argumento medioambiental, sino un requisito para seguir escalando. En este punto, la infraestructura se cruza con la política industrial. Las regiones capaces de desplegar centros de datos energéticamente eficientes ganan una ventaja competitiva que trasciende el ámbito tecnológico.

Gestionar la complejidad antes de que se vuelva inmanejable

A medida que los centros de datos se vuelven más grandes, distribuidos y heterogéneos, la operación manual se vuelve inviable. La keynote insiste en que la complejidad no es un efecto colateral, sino una consecuencia directa del nuevo modelo de IA. La respuesta, según Cisco, pasa por crear capas de gestión que abstraigan esa complejidad sin ocultarla.

En ese marco se presenta Nexus One, el plano de gestión que busca unificar el diseño, despliegue y operación de redes de centros de datos tanto on-premise como en la nube. La plataforma incorpora visibilidad específica de cargas de trabajo de IA y correlación entre comportamiento de red y uso de GPU, un elemento clave para diagnosticar problemas en entornos donde la frontera entre red, cómputo y aplicación se difumina.

Te puede interesar
CircuitX integra tecnología 5G y telemetría avanzada para transformar la conectividad en el Circuit de Barcelona-Catalunya

La idea de fondo es que la mayoría de las organizaciones no operará un único tipo de infraestructura, sino combinaciones de entornos privados, soberanos e híbridos. La gestión coherente de ese mosaico se convierte en un factor crítico para escalar sin perder control.

AgenticOps: operar infraestructuras pensadas para agentes

La complejidad creciente no se limita al plano físico. A nivel operativo, la proliferación de agentes introduce una carga que supera la capacidad humana de supervisión continua. Es aquí donde Cisco introduce su enfoque de AgenticOps, no como una automatización tradicional, sino como un modelo operativo diseñado para entornos dominados por agentes.

Durante la keynote se mostraron capacidades orientadas a diagnósticos autónomos de red, optimización continua del rendimiento y validación previa de cambios con evaluación de impacto. Estas funciones se apoyan en telemetría cruzada de red, seguridad y observabilidad, con el objetivo de reducir el tiempo de resolución de incidencias y prevenir degradaciones antes de que afecten a los usuarios o a los propios agentes.

Más que sustituir a los equipos de IT, el enfoque apunta a cambiar su rol: de operadores reactivos a supervisores de sistemas autónomos, con capacidad de intervenir cuando el contexto lo exige.

Infraestructura, soberanía y control

Aunque el debate sobre soberanía se desarrolla con más detalle en otros bloques del evento, su conexión con la infraestructura es evidente. La capacidad de operar centros de datos autónomos, desconectados o bajo control local depende directamente de la arquitectura tecnológica. La infraestructura deja de ser neutral y se convierte en un activo estratégico en términos regulatorios y geopolíticos.

La insistencia de Cisco en plataformas abiertas, compatibles y operables en distintos modelos de despliegue responde a un entorno cada vez más fragmentado. La infraestructura de IA ya no se diseña solo para maximizar rendimiento, sino para cumplir restricciones legales, políticas y de control de datos que varían por región y sector.

Un cambio de marco más que una suma de anuncios

Lo más relevante del bloque de infraestructura en Cisco Live EMEA 2026 no es la lista de anuncios, sino el desplazamiento conceptual que propone. La inteligencia artificial deja de entenderse como una capa abstracta y se ancla en la realidad física de chips, redes, energía y edificios. El centro de datos emerge como el verdadero campo de batalla de la próxima década tecnológica.

En ese escenario, la ventaja competitiva ya no vendrá únicamente de acceder a los modelos más avanzados, sino de contar con una infraestructura capaz de convertirlos en resultados sostenibles. A medida que la IA se industrializa, la distancia entre ambición y ejecución empieza a medirse en capacidad física, eficiencia energética y arquitectura operativa. Es ahí donde comienza a dibujarse una nueva línea de separación en el mercado.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad