F5 ha anunciado la expansión de su solución BIG-IP Next for Kubernetes , que ahora incorpora aceleración mediante las unidades de procesamiento de datos NVIDIA BlueField-3 y el marco de software NVIDIA DOCA. Esta combinación tecnológica ha sido validada por Sesterce, operador europeo especializado en infraestructuras de inteligencia artificial y computación de alto rendimiento, como parte de una propuesta enfocada a responder a las crecientes demandas de eficiencia y rendimiento en entornos empresariales centrados en IA.
La colaboración técnica entre F5 y NVIDIA se enmarca en una estrategia orientada a facilitar el despliegue de aplicaciones diseñadas desde su origen para aprovechar modelos de lenguaje a gran escala (LLM).
Según ha comunicado F5, las nuevas capacidades introducidas en BIG-IP Next buscan optimizar el uso de GPU, reducir la latencia en flujos de inferencia y ampliar la seguridad para sistemas MCP, mediante un ecosistema programable y escalable.
Optimización del tráfico LLM y rendimiento multi-tenant
Uno de los principales focos de la solución es la gestión avanzada del tráfico LLM. La integración permite que las tareas de IA se redirijan hacia modelos ligeros o especializados, en función del tipo de consulta. Esta lógica de enrutamiento se implementa directamente sobre las DPU BlueField-3, lo que permite reducir la latencia y aumentar la velocidad de respuesta desde el primer token generado.
Durante las pruebas llevadas a cabo por Sesterce, la solución mostró una mejora del 20 % en el uso de GPU, además de una integración directa con herramientas como NVIDIA Dynamo y KV Cache Manager. Estas funcionalidades permiten reducir los cuellos de botella en sistemas distribuidos, aprovechando almacenamiento en caché basado en claves para optimizar procesos repetitivos en inferencia.
“Este enfoque nos permite distribuir el tráfico de forma más eficiente y optimizar el uso de nuestras GPU, a la vez que aportamos un valor añadido y único a nuestros clientes”, declaró Youssef El Manssouri, CEO de Sesterce. La compañía ha destacado también la capacidad multi-tenant y las opciones de personalización mediante iRules como elementos clave para adaptarse a cargas de trabajo dinámicas.
Control de tráfico IA en Kubernetes con iRules y MCP
F5 ha incorporado soporte específico para el Protocolo de Contexto de Modelo (MCP), permitiendo una integración como proxy inverso para servidores MCP. Esta función refuerza la seguridad de las comunicaciones con LLM y ofrece protección frente a nuevas amenazas asociadas a entornos de IA autónoma.
Las funciones de programabilidad avanzadas de iRules permiten a los operadores adaptar rápidamente la configuración a los cambios en los protocolos de IA, sin necesidad de intervenir en la arquitectura central de las aplicaciones. Según World Wide Technology, esta funcionalidad aporta una ventaja operativa al consolidar la gestión del tráfico y la seguridad en un único entorno orquestado sobre Kubernetes.
Eficiencia distribuida con NVIDIA Dynamo y BlueField-3
La solución incorpora la integración con NVIDIA Dynamo, una plataforma orientada a la inferencia de IA a gran escala. Dynamo permite el uso de mecanismos como el Key-Value Cache Manager para almacenar información de consultas previas y reducir la redundancia en la ejecución de modelos. En combinación con la descarga de operaciones hacia las DPUs BlueField, se logra liberar carga de las CPU y reducir los costes asociados al almacenamiento en memoria GPU.
“Con BIG-IP Next sobre BlueField-3, las empresas disponen de un único punto de control para el tráfico destinado a factorías de IA”, señaló Ash Bhalgat, directivo de NVIDIA. Además, añadió que la arquitectura soporta funciones adicionales para entrenamiento, recuperación aumentada por generación (RAG) e IA autónoma.
Aplicaciones empresariales y continuidad de la colaboración
El producto ya está disponible para su implementación. La solución conjunta ofrece un punto de entrada para organizaciones que necesitan escalar entornos de IA complejos, incluyendo modelos de lenguaje multitarea y sistemas de razonamiento autónomo. F5 y NVIDIA han adelantado que prevén seguir ampliando las capacidades de la plataforma con nuevas funciones de seguridad, orquestación de recursos y compatibilidad con herramientas específicas del ecosistema de IA generativa.
La validación de Sesterce, junto con las aportaciones técnicas de ambas compañías, refuerzan el posicionamiento de la solución en escenarios empresariales europeos que requieren control sobre el rendimiento, la soberanía tecnológica y la gestión eficiente de recursos de computación en entornos Kubernetes.
