Estás leyendo
El superordenador que lo cambiará todo

El superordenador que lo cambiará todo

Proyecto Aurora

En un reciente artículo publicado en Chicago Magazine, he encontrado una historia fascinante sobre un nuevo superordenador desarrollado en el Laboratorio Nacional de Argonne, un proyecto que lleva 8 años de ejecución, para construir una máquina que será un millón de veces más rápida que el superordenador más rápido de principios de siglo y que promete abrir una nueva era de la cuando esté terminada, en algún momento de este año.

Este superordenador se llama Aurora y es el segundo superordenador de de los Estados Unidos, aunque mucho más potente que Frontier, puesto en funcionamiento el año pasado.

La computación exaescala, es un estadio de la computación nuevo y sin precedentes, y se refiere a los sistemas informáticos capaces de calcular al menos 10 a 18 operaciones por segundo (exaFLOPS), un uno seguido de dieciocho ceros (1000000000000000000), un escala que escapa de la comprensión de cualquiera que no sea un científico.

Superordenador Aurora
Superordenador Aurora

Aurora tendrá más de nueve mil nodos, cada uno compuesto por dos procesadores Xeon Sapphire Rapids15, seis GPU Xe y una arquitectura de memoria unificada que hará que un solo nodo tenga una potencia de cálculo máxima de 130 teraFLOPS. Tendrá alrededor de 10 petabytes de memoria y 230 PB de almacenamiento.

Se estima que la máquina consume alrededor de 60 MW. 17 A modo de comparación, la computadora más rápida del mundo hoy en día, Frontier usa 21 MW, mientras que Summit usa 13 MW.

Aurora, está patrocinado por el Departamento de Energía de los Estados Unidos (DOE) y diseñado por Intel y Cray para el Laboratorio Nacional de Argonne, tendrá un enorme impacto en la vida cotidiana, ya que todo, desde las simulaciones climáticas hasta el genoma humano o la , depende de los superordenadores. Sin embargo, es difícil comprobar empíricamente la potencia de la computación a exaescala, ya que es mucho más rápida que todo lo que tenemos hoy en día.

A la pregunta del autor del artículo ¿Cuál es el impacto que Aurora tendrá en nuestra vida cotidiana?, , director asociado del laboratorio de computación, medio ambiente y ciencias de la vida en el Laboratorio Nacional de Argonne, responde “Todo lo que sabemos sobre el clima a gran escala proviene de simulaciones climáticas en supercomputadoras. Lo que sabemos sobre el genoma humano proviene del análisis masivo de datos en grandes computadoras. Todo lo que está sucediendo en IA en este momento está sucediendo en computadoras a gran escala. Solo la idea de que pueda construir un sistema que pueda conducir un automóvil es el resultado de enormes cantidades de computación. Nuestra capacidad para diseñar reactores, nuestra capacidad para crear nuevas baterías, todo eso es el resultado de la supercomputación”.

Es un único equipo, mucho más grande que cualquier cosa que podamos hacer en la nube, que se centra en un solo problema cada vez. Los ordenadores a exaescala son sencillamente los equipos más grandes y eficientes que podemos crear con la tecnología convencional.Rick Stevens, profesor de Ciencias Informáticas de la Universidad de Chicago y líder de la iniciativa de computación a exaescala de Argonne.

Si bien Aurora terminó costando $ 500 millones, la cuenta para todo el Proyecto de Computación a Exaescala, el esfuerzo de colaboración entre los laboratorios nacionales, sumaría mucho más. Y para asegurar esa financiación, los científicos tuvieron que demostrar que podían hacer que la exaescala funcionara.

Superordenador Aurora
Superordenador Aurora

El primer obstáculo al que se enfrentaron los científicos del Departamento de Energía fue la potencia. Calcularon que un ordenador a exaescala necesitaría aproximadamente un gigavatio de energía para funcionar, más o menos la misma cantidad de energía que una ciudad pequeña. El segundo obstáculo era el almacenamiento de datos. Calcularon que un ordenador a exaescala generaría aproximadamente un petabyte de datos por segundo. El tercer obstáculo era la refrigeración. Calcularon que un ordenador a exaescala generaría tanto calor que tendría que ser refrigerado por cerca de 1.000 millones de euros.

El Departamento de Energía (DOE) quería construir un superordenador que requiriera el equivalente a la electricidad de una central nuclear, pero el argumento más convincente que podían esgrimir ante el gobierno para asegurarse la financiación sería si lo reducían a 20 megavatios.

Desarrollar el ordenador a exaescala Aurora supuso un enorme esfuerzo. Los científicos tuvieron que gestionar el proceso de solicitar financiación gubernamental, coordinarse con los fabricantes de software y hardware, y construir el centro de datos y la infraestructura de apoyo al superordenador. Lo que más espacio ocupa en el centro de datos no es el superordenador en sí, sino los servicios necesarios para mantenerlo operativo, como la sala eléctrica, que puede producir hasta 60 megavatios de electricidad.

El superordenador no es más que filas y filas de estos nodos apilados unos sobre otros, con tubos azules y rojos que salen de cada panel para suministrar electricidad y refrigeración. Los obreros de la construcción se encuentran en las fases finales de la instalación de los nodos y su cableado, a medida que Intel los va enviando.

Los nodos de Aurora se basan principalmente en unidades de procesamiento gráfico (GPU), en lugar de las CPU con las que funcionaban los superordenadores en el pasado. Las GPU son los mismos procesadores que se utilizan en el diseño de vídeo.

Aurora es como la sinfonía más compleja del mundo, con cientos de miles de instrumentos diferentes tocando al unísono para mantener la música.

La mayoría de los descubrimientos que hacen los científicos hoy en día proceden de la simulación de escenarios del mundo real en un superordenador. «No es muy diferente de cómo modelizamos el clima».

La leadership Computing Facility del DOE utiliza la astrofísica como ejemplo de lo que puede lograr un superordenador como Aurora. Aurora podrá producir modelos mucho más sofisticados que los ordenadores actuales.

Los científicos ya han utilizado superordenadores para simular cosas como el telescopio espacial James Webb. Aunque la computación a exaescala augura toda una nueva frontera de velocidad computacional, eso no significa que de repente seamos capaces de resolver todos nuestros problemas. Lo que está cambiando es la rapidez con la que obtenemos respuestas parciales y

Los científicos ya han empezado a trabajar en las siguientes fases de los superordenadores: zettascale (1021) y yottascale (1024). Dice que ya se ha empezado a hablar de ellas, pero duda que puedan alcanzarse con la arquitectura actual de los superordenadores.

Los transistores que llenan cada chip en Aurora son de siete nanómetros, una cifra cómicamente microscópica equivalente a 70 átomos colocados uno al lado del otro. Construir transistores del ancho de un átomo, tan pequeño como se pueda obtener, no es realista en este momento, por lo que la única opción es la litografía subnanométrica.

Por esa razón, la Ley CHIPS y Ciencia del presidente Joe Biden, promulgada en agosto pasado, es fundamental para el desarrollo futuro de las supercomputadoras, ya que la financiación de la investigación y el desarrollo de microchips es esencial para mantener la tasa de innovación tecnológica del país.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad