Estás leyendo
El superordenador Aurora es el más rápido para IA

El superordenador Aurora es el más rápido para IA

  • En ISC 2024, Intel anuncia que Aurora es el superordenador de IA más rápido, ha roto la barrera de la exaescala y detalla la importancia de un ecosistema abierto en HPC e IA.
Aurora el superordenador más rápido en inteligencia artificial

En ISC High Performance 2024, Intel ha anunciado, en colaboración con Argonne National Laboratory y Hewlett Packard Enterprise (), que el superordenador   ha roto la barrera de la exaescala con 1,012 exaflops y es el sistema de IA más rápido del mundo dedicado a la IA para la ciencia abierta, alcanzando 10,6 exaflops de IA. Intel también detallará el papel crucial de los ecosistemas abiertos para impulsar la computación de alto rendimiento () acelerada por IA.

Que el superordenador Aurora supere la exaescala le permitirá allanar el camino hacia los descubrimientos del mañana. Desde comprender los patrones climáticos hasta desentrañar los misterios del universo, los superordenadores sirven de brújula que nos guía hacia la resolución de retos científicos realmente difíciles que pueden mejorar la humanidad.
Ogi Brkic, Vicepresidente y director general de Soluciones de IA para Centros de Datos de Intel.

Diseñado como un sistema centrado en la IA desde su concepción, Aurora permitirá a los investigadores aprovechar los modelos generativos de IA para acelerar los descubrimientos científicos. Argonne ha logrado avances significativos en sus primeras investigaciones basadas en IA.

Los casos de éxito incluyen el mapeo de los 80 mil millones de neuronas del cerebro humano, la física de partículas de alta energía mejorada por el aprendizaje profundo, y el diseño y descubrimiento de fármacos acelerado por el aprendizaje automático, entre otros.

Aurora el superordenador más rápido en inteligencia artificial
Aurora el superordenador más rápido en inteligencia artificial

Detalles del superordenador Aurora

El superordenador Aurora es un sistema expansivo con 166 racks, 10.624 compute blades, 21.248 procesadores Intel® Xeon® CPU Max Series y 63.744 unidades Intel® Data Center GPU Max Series, lo que lo convierte en uno de los clústeres de GPU más grandes del mundo. Aurora también incluye la mayor interconexión de abierta basada en Ethernet en un único sistema de 84.992 puntos finales de tejido HPE slingshot.

El superordenador Aurora quedó segundo en la prueba LINPACK de alto rendimiento (HPL), pero superó la barrera de la exaescala con 1,012 exaflops utilizando 9.234 nodos, sólo el 87% del sistema. El superordenador Aurora también obtuvo el tercer puesto en la prueba de gradiente conjugado de alto rendimiento (HPCG) con 5.612 teraflops por segundo (TF/s) y el 39% de la máquina.

El objetivo de esta prueba es evaluar escenarios más realistas que permitan comprender mejor los patrones de comunicación y acceso a la memoria, factores importantes en las aplicaciones HPC del mundo real. Complementa a pruebas como LINPACK al ofrecer una visión completa de las capacidades de un sistema.

Cómo se optimiza la IA

En el corazón del superordenador Aurora se encuentra la GPU Intel Data Center Serie Max. La arquitectura de GPU Intel Xe es la base de la serie Max, que incluye hardware especializado como bloques de cálculo matricial y vectorial optimizados para tareas de IA y HPC. El diseño de la arquitectura Intel Xe, que proporciona un rendimiento computacional sin precedentes, es la razón por la que el superordenador Aurora obtuvo el primer puesto en la prueba LINPACK de alto rendimiento y precisión mixta (HPL-MxP), la que mejor pone de manifiesto la importancia de las cargas de trabajo de IA en HPC.

Las capacidades de procesamiento paralelo de la arquitectura Xe destacan en la gestión de las intrincadas operaciones matriciales y vectoriales inherentes al cálculo de IA de redes neuronales. Estos núcleos de cálculo son fundamentales para acelerar las operaciones matriciales cruciales para los modelos de aprendizaje profundo. Complementada por el conjunto de herramientas de software de Intel, incluido el compilador Intel® oneAPI DPC++/C++, un rico conjunto de bibliotecas de rendimiento y marcos y herramientas de IA optimizados, la arquitectura Xe fomenta un ecosistema abierto para desarrolladores que se caracteriza por su flexibilidad y escalabilidad en diversos dispositivos y factores de forma.

Avance de la computación acelerada con software abierto y capacidad de cálculo: En su sesión especial en ISC 2024, el martes 14 de mayo a las 18:45, (GMT+2) Hall 4, Congress Center Hamburg, Alemania, el CEO Andrew Richards de Codeplay, una compañía de Intel, abordará la creciente demanda de computación acelerada y software en HPC e IA. Destacará la importancia de oneAPI, que ofrece un modelo de programación unificado en diversas arquitecturas.

Basada en estándares abiertos, la oneAPI permite a los desarrolladores crear código que se ejecuta sin problemas en distintas plataformas de hardware sin necesidad de grandes modificaciones ni dependencia del proveedor. Este es también el objetivo de la Unified Acceleration Foundation (UXL) de la Fundación Linux, en la que Arm, Google, Intel, Qualcomm y otros están desarrollando un ecosistema abierto para todos los aceleradores y la computación heterogénea unificada sobre estándares abiertos con el fin de acabar con la dependencia de los propietarios. La Fundación UXL está añadiendo más miembros a su creciente coalición.

Te puede interesar
DES2024 revelara como las Administraciones Publicas tratan los retos eticos en la IA la ciberseguridad y la gobernanza del dato

Mientras tanto, Intel® Tiber™ Developer Cloud está ampliando su capacidad de computación con nuevas plataformas de hardware de última generación y nuevas capacidades de servicio que permiten a las empresas y a los desarrolladores evaluar la última arquitectura de Intel, innovar y optimizar modelos y cargas de trabajo de IA rápidamente, y luego desplegar modelos de IA a escala.

El nuevo hardware incluye avances de sistemas Intel® Xeon® 6 E-core y P-core para clientes seleccionados, y clústeres a gran escala basados en Intel® Gaudi® 2 e Intel® Data Center GPU Max Series. Las nuevas capacidades incluyen Intel® Kubernetes Service para cargas de trabajo de formación e inferencia de IA nativas de la nube y cuentas multiusuario.

Las tendencias en superordenadores

Los nuevos superordenadores que se están desplegando con las tecnologías Intel Xeon CPU Max Series e Intel Data Center GPU Max Series subrayan el objetivo de Intel de hacer avanzar la HPC y la IA. Los sistemas incluyen Cassandra del Centro Euromediterráneo sobre el Cambio Climático (CMCC) para acelerar el modelado del cambio climático; CRESCO 8 de la Agencia Nacional Italiana para las Nuevas Tecnologías, la Energía y el Desarrollo Económico Sostenible (ENEA) para permitir avances en la energía de fusión; Texas Advanced Computing Center (TACC), que está en plena producción para permitir el análisis de datos en biología hasta flujos de turbulencia supersónicos y simulaciones atomísticas en una amplia gama de materiales; así como United Kingdom Atomic Energy Authority (UKAEA) para resolver problemas ligados a la memoria que sustentan el diseño de las futuras centrales de fusión.

Los resultados de la prueba de IA de precisión mixta serán fundamentales para la próxima generación de GPU de Intel para IA y HPC, cuyo nombre en clave es Falcon Shores. Falcon Shores aprovechará la arquitectura Intel Xe de nueva generación con lo mejor de Intel® Gaudi®. Esta integración permite una interfaz de programación unificada.

Los primeros resultados de rendimiento en Intel® Xeon® 6 con núcleos P y memoria Multiplexer Combined Ranks (MCR) a 8800 megatransferencias por segundo (MT/s) ofrecen una mejora del rendimiento de hasta 2,3 veces en aplicaciones HPC del mundo real, como Nucleus for European Modeling of the Ocean (NEMO), en comparación con la generación anterior,1 sentando una sólida base como la elección de CPU host preferida para soluciones HPC.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad