Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La carrera por la implementación de la inteligencia artificial en el tejido empresarial ha chocado, hasta ahora, con una barrera física y logística: la latencia y la rigidez de los centros de datos centralizados. Mientras el desarrollo de modelos se ha concentrado en grandes infraestructuras, la necesidad operativa de las compañías se desplaza hacia donde se generan los datos originales. No se trata solo de capacidad de cómputo, sino de dónde se ejecuta esa capacidad. En este escenario, la ampliación de la plataforma Secure AI Factory de Cisco junto a NVIDIA plantea una respuesta a la fragmentación técnica que sufren sectores como la logística, la sanidad o la industria pesada, donde un milisegundo de demora en la inferencia puede invalidar la utilidad de la tecnología.
La propuesta busca transformar el concepto de fábrica de IA en una entidad ubicua. Al extender esta arquitectura desde el núcleo hasta el extremo (edge), las organizaciones se enfrentan al desafío de mantener la coherencia en la seguridad y el rendimiento sin replicar los costes energéticos de un gran data center en cada almacén o vehículo en movimiento. La pregunta que subyace en esta evolución no es solo si la IA es capaz de procesar la información, sino si la infraestructura subyacente puede soportar tal nivel de distribución sin comprometer la integridad de la red corporativa.
Del silicio al software: una arquitectura sin fisuras técnicas
La integración de componentes de alto rendimiento es el eje sobre el que pivota esta expansión. La introducción de los switches Cisco N9100, con capacidades que alcanzan los 102,4 Tbps mediante tecnología Ethernet NVIDIA Spectrum-6, no es una mera actualización de catálogo. Representa un cambio en la densidad de tráfico que las redes empresariales deben gestionar para alimentar modelos de lenguaje y sistemas de visión artificial en tiempo real. La infraestructura ya no se limita a transportar datos; ahora debe ser el motor que facilite el aprendizaje y la ejecución de procesos autónomos.
Para Jensen Huang, Fundador y CEO de NVIDIA, la clave reside en la protección integral de estas factorías de inteligencia. Según señala el directivo, la seguridad debe integrarse en cada capa, desde el silicio hasta el software, para proteger tanto las aplicaciones como la infraestructura crítica. Esta visión coincide con la necesidad de las denominadas neoclouds y nubes soberanas, que en el mercado europeo y español ganan tracción ante las exigencias regulatorias de control del dato. La colaboración entre ambas compañías pretende que las empresas pasen de fases piloto a producción a gran escala en semanas, eliminando la fricción de integrar sistemas heterogéneos que a menudo actúan como silos aislados.
La seguridad del agente: el nuevo perímetro de defensa
A medida que las empresas despliegan agentes de IA más autónomos, el riesgo se desplaza del acceso a la red hacia la lógica de las propias acciones que estos agentes ejecutan. En la arquitectura Secure AI Factory, la protección no se limita a un cortafuegos perimetral. Cisco ha integrado su Hybrid Mesh Firewall para que las políticas de seguridad se apliquen directamente en las unidades de procesamiento de datos (DPU) NVIDIA BlueField. Este enfoque permite bloquear amenazas a nivel de servidor, antes incluso de que el tráfico malicioso toque los datos sensibles de la organización.
Sin embargo, el avance más significativo en términos de gobernanza es la protección de las interacciones entre agentes. En entornos de ejecución como OpenShell de NVIDIA, la monitorización constante de cada herramienta y acción se vuelve imperativa. «La mayoría de las organizaciones comprenden el potencial de la IA, pero están buscando la manera de implementarla de forma segura y a gran escala», afirma Chuck Robbins, Presidente y CEO de Cisco. La solución propuesta busca que, mediante la integración con NVIDIA NeMo Guardrails, los equipos de seguridad puedan anticiparse a comportamientos imprevistos de la IA, especialmente cuando estos sistemas operan en ubicaciones periféricas con conectividad intermitente o supervisión física limitada.
El «Edge» como motor de decisiones en tiempo real
La inferencia en el extremo no es una elección estética, sino una necesidad operativa. En un hospital que analiza diagnósticos por imagen en tiempo real o en una planta de producción que monitoriza la seguridad de los trabajadores mediante vídeo, el envío de datos a una nube centralizada resulta ineficiente. La compatibilidad de la IA con los porfolios Cisco UCS y Cisco Unified Edge permite que estas cargas de trabajo de misión crítica funcionen sin las exigencias de refrigeración y espacio de un centro de datos convencional.
Para los proveedores de servicios en España, esto abre la puerta a un nuevo modelo de negocio: el diseño de referencia Cisco AI Grid. Al combinar la plataforma de servicios de movilidad de Cisco con las GPUs NVIDIA RTX PRO Blackwell Series, las operadoras pueden ofrecer servicios gestionados de IA con soberanía de nivel operador. Esto significa que la inteligencia puede residir físicamente cerca del cliente final, cumpliendo con los estándares de latencia y privacidad que la industria actual demanda.
Simplificación frente a la fatiga tecnológica
Uno de los puntos de fricción habituales en los departamentos de TI es la complejidad de gestionar múltiples proveedores para una sola solución de IA. El anuncio de Cisco Nexus Hyperfabric intenta mitigar esta carga al integrar los switches de la serie N9000 con procesadores Ethernet NVIDIA Spectrum-X en una solución única. La meta es clara: reducir el tiempo de despliegue de meses a solo unas semanas. Este ahorro de tiempo no es solo una métrica de eficiencia, sino una ventaja competitiva en un mercado donde la velocidad de adopción de la IA define la posición de la empresa.
Mary Johnston Turner, Directora Global de Infraestructura de Centros de Datos en IDC, apunta que el sector se encuentra en un punto de inflexión crítico. El desafío ya no es qué puede hacer la tecnología, sino cómo se escala sin crear nuevos silos de infraestructura. La alianza entre Cisco y NVIDIA parece orientada a ofrecer esa flexibilidad, permitiendo que las empresas elijan entre arquitecturas de referencia validadas que se adaptan tanto a nubes privadas como a entornos híbridos.
A pesar de estos avances, la implementación masiva de agentes autónomos y redes de alta velocidad plantea incógnitas sobre la gestión del consumo energético a largo plazo y la capacidad de las plantillas técnicas para supervisar sistemas que, por diseño, operan con una autonomía creciente. La infraestructura está lista para salir del centro de datos, pero queda por ver cómo reaccionarán los marcos de gobernanza empresarial ante una inteligencia que ahora se desplaza por la red con la misma libertad que los datos que la alimentan.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
