Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La carrera global por el dominio de las telecomunicaciones ha encontrado un nuevo epicentro en la frontera entre la computación de alto rendimiento y la conectividad móvil. El acuerdo firmado entre el fabricante sueco Ericsson y el Forschungszentrum Jülich, uno de los centros de investigación más relevantes de Alemania, no es un memorando de entendimiento convencional.
Se trata de un movimiento tectónico en la arquitectura digital europea que busca anticiparse a la llegada comercial del 6G, prevista para el entorno del año 2030, utilizando como palanca el superordenador JUPITER. Esta máquina, el primer sistema a exaescala del continente, se convierte así en el campo de pruebas para una infraestructura que ya no solo depende de antenas y espectro, sino de una capacidad de procesamiento masiva y, sobre todo, energéticamente sostenible.
El despliegue de las redes de sexta generación plantea una paradoja técnica que los directivos del sector observan con atención. Mientras que las demandas de velocidad y latencia escalan de forma exponencial, la infraestructura física se enfrenta a límites críticos de consumo eléctrico y gestión de calor. Es aquí donde la colaboración entre Ericsson y el centro de Jülich introduce un factor diferencial: la computación neuromórfica. Este enfoque, inspirado en el funcionamiento del cerebro humano, busca romper la arquitectura tradicional de Von Neumann para procesar tareas de red intensas con una fracción de la energía utilizada actualmente.
Desde el Forschungszentrum Jülich, Laurens Kuipers, miembro de la Junta Ejecutiva, señala que esta unión tiene el potencial de fortalecer una infraestructura digital europea soberana. No es una cuestión menor en un mercado donde la dependencia de tecnologías externas ha sido un punto de fricción constante para los operadores de la Unión Europea. Al combinar la excelencia en computación de alto rendimiento con la experiencia de Ericsson en el despliegue de redes globales, el proyecto intenta responder a una pregunta que flota sobre los consejos de administración tecnológicos: ¿es posible escalar la inteligencia de red sin comprometer los objetivos de sostenibilidad?
El núcleo de la investigación se apoya en el concepto de Arquitectura de Supercomputación Modular (MSA), una herencia del trabajo a exaescala desarrollado en el Centro de Supercomputación de Jülich (JSC). Esta arquitectura permite segmentar las cargas de trabajo de la IA de forma que la eficiencia del almacenamiento y la velocidad de ejecución se optimicen en tiempo real. Nicole Dinion, directora de Arquitectura y Tecnología de Software en Ericsson, subraya que el futuro de las redes móviles está profundamente entrelazado con la IA y la necesidad de una eficiencia energética sin precedentes. Según Dinion, la colaboración permite explorar arquitecturas que definirán la próxima generación de telecomunicaciones, integrando el poder de cómputo de Jülich en todos los dominios de la tecnología de Ericsson, desde la radio hasta los servicios cloud.
Uno de los puntos más críticos de esta hoja de ruta técnica es la aplicación de la IA en la Red de Acceso por Radio (RAN) y el edge computing. En concreto, los equipos trabajan en la optimización de tecnologías como el MIMO Masivo, esencial para que múltiples dispositivos se comuniquen simultáneamente sin interferencias. El uso de memristores y otros componentes propios de la computación neuromórfica podría acelerar estas tareas de optimización de canales de radio, reduciendo el uso de energía en comparación con los métodos clásicos que hoy sostienen el 5G.
Sin embargo, el reto no es únicamente de hardware. La evaluación comparativa de métodos de inteligencia artificial para toda la cartera de productos de Ericsson requiere un entrenamiento de modelos a gran escala que solo infraestructuras como JUPITER pueden soportar. Este superordenador permite realizar pruebas de escalabilidad con conjuntos de datos masivos que simulan el tráfico de red de ciudades enteras, permitiendo predecir cuellos de botella antes de que se instale un solo nodo físico.
El proyecto también pone el foco en la economía circular del dato y la energía. Un ejemplo es la investigación de estrategias operativas como la recuperación de calor en los centros de datos y nodos de supercomputación. En un contexto donde la regulación europea sobre eficiencia energética es cada vez más estricta, la capacidad de convertir el residuo térmico de un proceso de inferencia de IA en un recurso aprovechable añade un valor operativo que trasciende lo puramente tecnológico.
A diferencia de las etapas iniciales del 5G, donde el foco se puso en la velocidad, la evolución hacia el 6G bajo este prisma europeo parece priorizar la resiliencia y la inteligencia distribuida. La integración del ecosistema EuroHPC en la estrategia cloud de Ericsson sugiere que la industria busca una mayor capilaridad. La idea de que la supercomputación deje de estar confinada en centros de investigación para informar directamente la gestión de red en el «edge» o borde de la infraestructura móvil supone un cambio de paradigma para los proveedores de servicios en España y el resto del continente.
La colaboración no se limita a la teoría. Se han establecido protocolos para que, siempre que las condiciones comerciales y de seguridad lo permitan, se utilicen los recursos de JUPITER para el entrenamiento de modelos que luego se desplegarán en entornos de producción. Esto crea un ciclo de retroalimentación donde la ciencia básica aplicada en Jülich se traduce de forma casi inmediata en mejoras para la red central y la gestión de red de Ericsson.
A medida que el calendario avanza hacia 2030, la industria se enfrenta a la incógnita de si esta soberanía digital europea podrá competir en costes y agilidad con los modelos de desarrollo de otras regiones. Aunque el liderazgo de Ericsson en telecomunicaciones y la potencia de Jülich en HPC ofrecen una base sólida, la viabilidad comercial de las soluciones neuromórficas en entornos de red reales sigue siendo el gran interrogante. La capacidad de Europa para transformar esta potencia de cálculo en un estándar de mercado determinará si el 6G será, finalmente, la generación que consolide la autonomía tecnológica del bloque.
La alianza entre estos dos gigantes tecnológicos abre una derivada que apenas comienza a explorarse: la posibilidad de que la infraestructura de telecomunicaciones se convierta en una extensión líquida de los centros de supercomputación. Queda por ver cómo absorberán los operadores esta complejidad técnica y si los marcos regulatorios permitirán una integración tan profunda entre la computación de alto rendimiento y las redes de uso público.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
