Estás leyendo
Hewlett Packard Enterprise presenta Servicios de IA en la nube para Large Languages Models

Hewlett Packard Enterprise presenta Servicios de IA en la nube para Large Languages Models

  • HPE entra en el mercado de Inteligencia Artificial en la nube con la introducción de HPE GreenLake for Large Language Models (LLMs) para que cualquier empresa pueda entrenar, afinar y desplegar Inteligencia Artificial a gran escala de forma privada a través de un servicio de supercomputación en la nube multi-usuario y bajo demanda
  • Esta nueva oferta es la primera de una serie de servicios de IA específicos para sectores y ámbitos concretos, y está previsto que en el futuro se aplique a modelos climáticos, sanidad e investigación médica, servicios financieros, industria y transporte
  • HPE GreenLake for LLMs se ejecutará en superordenadores accesibles líderes en el mundo y software de IA, alimentados por energía renovable casi al 100%
HPEDiscover2023

Hewlett Packard Enterprise ha anunciado su entrada en el mercado de servicios de IA en la nube con la ampliación de su porfolio GreenLake ofreciendo modelos de lenguaje a gran escala (Large Language Models) para que cualquier empresa, desde startups hasta compañías Fortune 500, pueda acceder bajo demanda en un servicio de supercomputación en la nube multi-usuario.

Con for Large Language Models (LLMs), las empresas pueden entrenar, afinar y desplegar IA a gran escala de forma privada utilizando una plataforma de supercomputación sostenible que combina el software de IA y los superordenadores de HPE líderes del mercado. HPE GreenLake for LLMs se ofrecerá en colaboración con Aleph Alpha, una startup alemana de IA, para proporcionar a los usuarios un LLM probado y listo para usar que habilita casos de uso que requieran procesamiento y análisis de texto e imágenes.

HPE GreenLake for LLMs es la primera de una serie de aplicaciones específicas de IA que HPE planea lanzar en el futuro. Estas aplicaciones incluirán soporte para modelos climáticos, sanidad e investigación médica, servicios financieros, industria y transporte. Además, HPE también ha anunciado una nueva serie de soluciones optimizadas para cargas de trabajo de inferencia de IA en el extremo y en el centro de datos.

Hemos alcanzado un cambio generacional en el mercado de la IA que será tan transformacional como la web, el móvil y la nube. HPE está haciendo que la IA, que antes se circunscribía a laboratorios gubernamentales con alta financiación y a los gigantes globales de la nube, sea accesible para todos al ofrecer una gama de aplicaciones de IA, comenzando con modelos de lenguaje a gran escala (LLM), que se ejecutan en superordenadores sostenibles y probados de HPE. Ahora, las organizaciones pueden adoptar la IA para impulsar la innovación, desarrollar nuevos modelos de negocio y lograr grandes avances con un servicio en la nube bajo demanda que entrena, afina e implementa modelos, a escala y de forma responsable.Antonio Neri, presidente y CEO de HPE

HPE es líder global y experto en supercomputación, impulsando niveles sin precedentes de rendimiento y escala para la IA entre los que se incluyen romper la barrera de velocidad exascala con el superordenador más rápido del mundo, Frontier.

A diferencia de las ofertas cloud de uso general que ejecutan múltiples cargas de trabajo en paralelo, HPE GreenLake for LLMs se ejecuta en una arquitectura nativa de IA diseñada exclusivamente para una única carga de trabajo de entrenamiento y simulación de IA a gran escala, y a plena capacidad de computación. La oferta admitirá cargas de trabajo de IA y HPC en cientos o miles de CPU o GPU a la vez. Esta capacidad es significativamente más eficaz, fiable y eficiente para entrenar modelos de IA más precisos, lo que permite a las empresas acelerar su viaje desde Pruebas de Concepto (POC) a producción y resolver problemas más rápidamente.

Presentamos HPE GreenLake for LLMs, la primera de una serie de aplicaciones de IA

HPE GreenLake for LLMs incluirá acceso a Luminous, un modelo de lenguaje a gran escala pre-entrenado de Aleph Alpha, que se ofrece en múltiples idiomas, incluyendo inglés, francés, alemán, italiano y español. Este modelo permite a los clientes aprovechar sus propios datos, entrenar y afinar modelos personalizados, para obtener información en tiempo real basada en sus conocimientos propios.

Este servicio permite a las empresas crear y comercializar diversas aplicaciones de IA para integrarlas en sus procesos y generar valor para el negocio o la investigación.

Utilizando los superordenadores y el software de IA de HPE, hemos entrenado Luminous, un modelo de lenguaje a gran escala, de forma eficiente y rápida, para que procesos críticos en bancos, hospitales y bufetes de abogados lo utilicen como asistente digital para acelerar la toma de decisiones y ahorrar tiempo y recursos. Estamos orgullosos de ser el partner de lanzamiento de HPE GreenLake for Large Language Models, y estamos ampliando nuestra colaboración con HPE para extender Luminous a la nube y ofrecerlo como un servicio a nuestros clientes finales para impulsar nuevas aplicaciones para iniciativas empresariales y de investigación.Jonas Andrulis, fundador y CEO de Aleph Alpha

HPE proporciona escala de supercomputación para el entrenamiento, ajuste y despliegue de IA

HPE GreenLake para LLMs estará disponible bajo demanda, ejecutándose en los superordenadores más potentes y sostenibles del mundo, HPE Cray XD, eliminando la necesidad de que los clientes adquieran y gestionen un superordenador propio que suele ser costoso, complejo y requiere conocimientos específicos. La oferta aprovecha el entorno de programación HPE Cray, un paquete de software totalmente integrado para optimizar las aplicaciones de HPC e IA, con un conjunto completo de herramientas para desarrollar, portar, depurar y ajustar el código.

Además, la plataforma de supercomputación proporciona soporte para el software de IA/ML de HPE, que incluye HPE Machine Learning Development Environment para entrenar rápidamente modelos a gran escala, y HPE Machine Learning Data Management Software para integrar, gestionar y auditar flujos de datos y generar modelos de IA fiables y precisos de forma reproducible.

HPE GreenLake for LLMs se ejecuta en TI sostenibles

HPE se compromete a ofrecer informática sostenible a sus clientes. HPE GreenLake for LLMs se ejecutará en instalaciones en colocation, como con QScale en Norteamérica, que será la primera región en ofrecer un diseño especialmente concebido para soportar la escala y capacidad de la supercomputación con casi el 100% de energía renovable. 1

Te puede interesar
BeDisruptive Ilustrativa01

HPE amplía la oferta de IA con un nuevo porfolio de soluciones de inferencia de IA

HPE da soporte a tres componentes críticos en el proceso de la IA: entrenamiento, ajuste e inferencia. Además de la presentación de HPE GreenLake for Large Language Models para entrenar y afinar LLMs a gran escala, HPE ha anunciado una expansión de sus soluciones de inferencia de IA para acelerar el tiempo de obtención de valor para las grandes industrias, incluyendo venta al por menor, hostelería, industria, medios de comunicación y entretenimiento.

Estos sistemas han sido adaptados para cargas de trabajo en el extremo y en el centro de datos, como Computer Vision at the Edge, Generative Visual AI y Natural Language Processing AI. Estas soluciones de IA se basan en los nuevos servidores HPE ProLiant Gen11, diseñados específicamente para integrar aceleración avanzada de GPU, fundamental para el rendimiento de la IA. Los servidores HPE ProLiant DL380a y DL320 Gen11 aumentan 5 veces más el rendimiento de la inferencia de IA con respecto a los modelos anteriores.

Disponibilidad

HPE está ya aceptando pedidos para HPE GreenLake for LLMs y espera contar con disponibilidad adicional para finales del año 2023, comenzando en Norteamérica y en Europa para principios del próximo año.

HPE Services ofrece un porfolio completo de servicios que abarcan estrategia y diseño, implementación, operaciones y gestión para iniciativas de IA.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad