Estás leyendo
Red Hat AI 3 lleva la inferencia distribuida a producción

Red Hat AI 3 lleva la inferencia distribuida a producción

  • Red Hat lanza AI 3 con inferencia distribuida para llevar modelos de IA a producción, integrando OpenShift AI, RHEL AI y soporte para entornos híbridos.
Red Hat lanza acceso gratuito a RHEL para desarrollo empresarial

La nueva versión de la plataforma de inteligencia artificial de Red Hat introduce capacidades de inferencia distribuida diseñadas para acelerar la transición de los modelos de IA desde la experimentación hasta su despliegue en entornos productivos. Red Hat AI 3, que integra Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI, se posiciona como una plataforma unificada para cargas de trabajo de IA en entornos híbridos y multicloud.

El movimiento no es casual. Según el informe The GenAI Divide del MIT, el 95% de las empresas no logra retornos financieros tangibles de sus inversiones en IA, a pesar de haber destinado más de 40.000 millones de dólares al desarrollo de estas tecnologías. El paso de los modelos de prueba a la producción sigue siendo un cuello de botella, tanto por la complejidad técnica como por los costes asociados a la inferencia a gran escala.

Red Hat AI 3 busca precisamente desbloquear ese paso. La plataforma permite ejecutar modelos de lenguaje de gran tamaño (LLM) con inferencia distribuida, apoyándose en proyectos comunitarios como vLLM y llm-d. Esta última tecnología, ahora disponible de forma general en OpenShift AI 3.0, transforma la ejecución de LLM en Kubernetes, combinando rendimiento y escalabilidad con tecnologías como NVIDIA Dynamo, NIXL y DeepEP MoE.

La propuesta de Red Hat se apoya en una arquitectura abierta y flexible, capaz de operar sobre cualquier acelerador de hardware, desde NVIDIA hasta AMD, y en cualquier entorno: centros de datos, nubes públicas o entornos de IA soberana. Esta versatilidad apunta a un objetivo claro: facilitar a los CIOs y responsables de TI una infraestructura que permita escalar la IA sin comprometer el control ni la eficiencia operativa.

El enfoque en la inferencia no es menor. A medida que las organizaciones desplazan su atención del entrenamiento al uso real de los modelos, la fase de inferencia se convierte en el nuevo campo de batalla. Red Hat responde con una plataforma que no solo optimiza costes y tiempos de respuesta, sino que introduce mecanismos de programación inteligente y desagregación de servicios para mejorar la eficiencia.

Entre las novedades destaca el Modelo como Servicio (MaaS), que permite a los equipos de TI actuar como proveedores internos de modelos, ofreciendo acceso bajo demanda a desarrolladores y aplicaciones. Esta capacidad resulta especialmente útil en escenarios donde la privacidad de los datos impide el uso de servicios públicos de IA.

El hub de IA y el Gen AI Studio completan la propuesta. El primero centraliza la gestión de activos de IA, desde modelos validados hasta registros de ciclo de vida. El segundo ofrece un entorno práctico para experimentar con modelos, probar prompts y ajustar parámetros, con soporte para casos de uso como chat o generación aumentada por recuperación (RAG).

Red Hat también ha reforzado su apuesta por los agentes de IA, sistemas capaces de ejecutar tareas complejas de forma autónoma. La nueva versión de OpenShift AI incluye una capa de API unificada basada en Llama Stack y soporte para el Protocolo de Contexto de Modelo (MCP), un estándar emergente que facilita la interacción entre modelos y herramientas externas.

El kit de herramientas para personalización de modelos, basado en InstructLab, incorpora bibliotecas Python y proyectos como Docling para facilitar la ingesta de datos no estructurados. También incluye capacidades para generar datos sintéticos y ajustar modelos, con un hub de evaluación integrado que permite validar resultados y mejorar la precisión de los modelos con datos propios.

Aunque la propuesta de Red Hat se apoya en tecnologías abiertas y estándares comunitarios, su ambición es claramente empresarial. Joe Fernandes, vicepresidente de la unidad de negocio de IA en Red Hat, lo resume así: “Estamos capacitando a los equipos de TI para hacer operativa la IA de última generación con mayor confianza, en sus propios términos y en cualquier infraestructura”.

Te puede interesar
AINIA

Desde el lado de los analistas, Rick Villars de IDC señala que 2026 será un año clave para la madurez de la IA en las empresas. “El verdadero desafío está en poner en práctica los conocimientos derivados de los modelos mediante una inferencia eficiente, segura y rentable”, afirma. En esa línea, destaca la necesidad de plataformas unificadas que permitan orquestar cargas de trabajo complejas en entornos híbridos.

La colaboración con fabricantes de hardware refuerza la estrategia. AMD y NVIDIA han integrado sus tecnologías con Red Hat AI 3, desde las GPU Instinct y la pila ROCm de AMD hasta las bibliotecas de inferencia de NVIDIA. Esta integración apunta a garantizar un rendimiento predecible y un retorno de inversión medible, dos condiciones críticas para la adopción empresarial.

En el terreno práctico, empresas como ARSAT ya están utilizando Red Hat OpenShift AI para desplegar soluciones de IA agéntica en producción. Según Mariano Greco, CEO de la compañía argentina, la plataforma les permitió pasar de la necesidad a la producción en 45 días, mejorando el servicio y liberando recursos para la innovación.

La evolución de Red Hat AI 3 marca un punto de inflexión en la estrategia de la compañía. No se trata solo de ofrecer herramientas para entrenar modelos, sino de construir una infraestructura robusta para ejecutar IA en condiciones reales, con costes controlados y escalabilidad garantizada. En un momento en que la presión por demostrar resultados tangibles se intensifica, esa diferencia puede ser decisiva.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad