Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
Cisco ha presentado importantes innovaciones en infraestructura de Inteligencia Artificial (IA) durante su Cisco Partner Summit, enfocadas en simplificar la adopción de IA mediante soluciones adaptables y listas para uso en sectores específicos. Entre los anuncios destacan el servidor UCS C885A M8, diseñado sobre la plataforma Nvidia HGX, y los AI PODs, configuraciones modulares que facilitan la instalación de infraestructura de IA en centros de datos y entornos de computación perimetral.
Jeetu Patel, Director de Productos en Cisco, subraya el reto que enfrentan las empresas para integrar cargas de trabajo de IA. “Las innovaciones de Cisco, como los AI PODs y el servidor GPU, fortalecen la seguridad, el cumplimiento y la potencia de procesamiento de esas cargas de trabajo a medida que los clientes evolucionan su estrategia de IA”, afirmó.
Componentes robustos para la era de la IA
La rápida adopción de IA está transformando las necesidades en centros de datos, donde los requisitos de escalabilidad y seguridad son prioritarios. Según un informe de McKinsey, la IA generativa podría añadir entre 2,6 y 4,4 billones de dólares a la economía global anualmente, subrayando la relevancia de esta tecnología en el ámbito empresarial. No obstante, solo el 14% de las organizaciones en todo el mundo, y apenas el 8% en España, considera que su infraestructura está lista para afrontar los desafíos de la IA.
Servidores UCS C885A M8: optimización para cargas de IA
El nuevo servidor UCS C885A M8 de Cisco responde a estos desafíos con un sistema de 8U construido sobre la plataforma Nvidia HGX, que soporta hasta 8 GPUs de alto rendimiento, como las Nvidia H100 y H200 Tensor Core o las AMD MI300X. Estas capacidades están pensadas para optimizar tareas complejas, como el entrenamiento de modelos de lenguaje extenso (LLM) y la generación aumentada por recuperación (RAG). Además, el sistema incluye DPU Nvidia BlueField-3, que aceleran el acceso a los datos en servidores de alta densidad y mejoran la seguridad bajo un esquema de confianza cero.
La plataforma Nvidia HGX incluye opciones de red avanzadas, como Nvidia Quantum-2 InfiniBand y Spectrum-X Ethernet, que ofrecen velocidades de hasta 400 Gbps, según Nvidia, y permiten reducir la latencia en redes de gran volumen de datos. Este servidor es gestionado por Cisco Intersight, un paquete SaaS que permite administrar múltiples sistemas y aplicaciones, desde contenedores Kubernetes hasta servidores y entornos hiperconvergentes, simplificando la administración desde un único punto de control.
Infraestructura IA ‘plug-and-play’ con AI PODs
Los AI PODs, desarrollados bajo el modelo de Cisco Validated Design, integran elementos de computación, redes y almacenamiento en una infraestructura modular que se adapta a casos de uso específicos. Estos paquetes preconfigurados incluyen la plataforma de software Nvidia AI Enterprise, que proporciona herramientas de desarrollo y modelos de IA preentrenados listos para producción. Al eliminar las incógnitas en la implementación de soluciones de IA, los AI PODs permiten a las empresas desplegar soluciones de inferencia, grandes clústeres y otras aplicaciones de IA con mayor facilidad y fiabilidad.
Jeremy Foster y Kevin Wollenweber, altos ejecutivos de Cisco, destacaron en un blog que el switch Nexus 9364E-SG2, compatible con velocidades de 400 y 800 Gbps, es un componente clave para gestionar el flujo de datos en estos entornos. “El Nexus 9364E-SG2 asegura un flujo de datos constante entre servidores y permite una infraestructura de red escalable, minimizando la latencia y aumentando el rendimiento en el entrenamiento de modelos de IA”, explicaron los ejecutivos.
Superando las barreras de adopción de IA
Uno de los objetivos de Cisco con estas soluciones es reducir las barreras de entrada para las empresas que desean adoptar IA sin necesidad de una renovación completa de su infraestructura. Según el Cisco AI Readiness Index, el 85% de los proyectos de IA a nivel global experimentan interrupciones o se detienen, en gran medida debido a los elevados costos y la complejidad de gestión de estas cargas de trabajo.
“Nuestra meta es permitir que los clientes desplieguen los AI PODs con confianza, al predecir rendimiento, escalabilidad y costos, mientras reducimos el tiempo necesario para alcanzar soluciones de inferencia listas para producción”, señalaron Foster y Wollenweber.
Disponibilidad y lanzamiento
Las nuevas soluciones ya están disponibles para su reserva, con los servidores UCS C885A M8 previstos para distribución a finales de 2024. Los AI PODs estarán disponibles para pedidos a partir de noviembre de este año, consolidando el compromiso de Cisco de facilitar la infraestructura de IA en el sector empresarial.