Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
El estudio de la materia ha operado históricamente bajo la premisa del equilibrio. La mayoría de los sistemas físicos conocidos tienden, por naturaleza, a estabilizarse y alcanzar un estado de reposo térmico donde el desorden se detiene. Sin embargo, una investigación conjunta entre la iniciativa Basque Quantum (BasQ), el NIST y científicos de IBM ha roto esta inercia al demostrar la creación de cristales de tiempo discretos en dos dimensiones.
El experimento, cuyos resultados publica la revista científica Nature Communications, no solo supone un avance en la física fundamental, sino que posiciona al centro de computación cuántica de San Sebastián en la vanguardia de la simulación de materiales imposibles para la informática convencional.
Lo que define a un cristal de tiempo no es su estructura en el espacio, como ocurre con el grafito o el diamante, sino su capacidad para mantener un patrón repetitivo a lo largo del tiempo sin necesidad de un aporte constante de energía externa. Es una fase de la materia que existe permanentemente fuera del equilibrio. Hasta la fecha, estos sistemas se limitaban a estructuras unidimensionales —cadenas lineales de átomos— extremadamente frágiles ante cualquier interferencia. La transición a la segunda dimensión, lograda ahora sobre el procesador IBM Quantum Heron, permite observar interacciones mucho más ricas y, sobre todo, una robustez que abre la puerta a aplicaciones prácticas en la ciencia de materiales.
El uso del chip Heron, que impulsa el sistema instalado en el IBM-Euskadi Quantum Computational Center, ha permitido configurar un cristal de 144 cúbits. No estamos ante una simulación digital de un fenómeno físico; los investigadores están utilizando los propios cúbits como las unidades básicas para construir el cristal. Al ser objetos cuánticos intrínsecos, el procesador se convierte en un laboratorio de experimentación directa donde las señales se desplazan a través de una superficie, generando dinámicas que nunca habían sido observadas en experimentos de mesa o simulaciones clásicas.
Esta escala de 144 cúbits sitúa al proyecto en una frontera donde la computación tradicional empieza a mostrar síntomas de agotamiento. Aunque los investigadores emplearon técnicas avanzadas de redes de tensores para verificar los resultados, el aumento de la complejidad en dos dimensiones hace que las interacciones superpuestas crezcan de forma exponencial. En los tamaños más grandes estudiados durante esta investigación, el equipo se topó con parámetros que ya no podían ser replicados con exactitud por un ordenador clásico. La necesidad de un sistema cuántico dejó de ser una preferencia metodológica para convertirse en un requisito técnico.
La relevancia para el sector tecnológico y empresarial en España radica en la capacidad de estos sistemas para modelar las denominadas interacciones tipo Heisenberg. Este fenómeno, donde los espines de las partículas influyen entre sí de manera persistente, es crítico para el desarrollo de nuevos semiconductores a escala nanométrica, imanes moleculares y arquitecturas basadas en puntos cuánticos. Entender cómo se comporta la materia fuera del equilibrio permite anticipar cómo fallan o cómo podrían optimizarse los componentes electrónicos del futuro.
Sin embargo, la estabilidad de estos cristales de tiempo depende de un equilibrio paradójico entre el orden y el desorden. Un grado mínimo de desorden es necesario para estabilizar el sistema y evitar que la información cuántica se disperse, pero un exceso rompería la estructura del cristal. La investigación liderada por BasQ e IBM está analizando precisamente estos umbrales de tolerancia, utilizando técnicas de mitigación de errores que combinan la potencia del hardware cuántico con algoritmos clásicos de alto rendimiento.
Este enfoque híbrido define lo que la industria denomina ahora supercomputación centrada en el quántum (QCSC). En lugar de ver al ordenador cuántico como una entidad aislada, se integra en un flujo de trabajo donde las CPUs y GPUs tradicionales gestionan la matemática de redes de tensores mientras el QPU (unidad de procesamiento cuántico) resuelve la física del sistema complejo. Es una división del trabajo donde cada pieza de hardware se encarga de aquello para lo que es nativamente más eficiente.
El avance en San Sebastián también subraya una derivada estratégica: la conectividad de los cúbits. Mientras que el chip Heron conecta cada unidad con dos o tres vecinos, los próximos pasos apuntan hacia el uso de chips como el IBM Quantum Nighthawk, donde la interconectividad sube a cuatro vecinos. A mayor conectividad, mayor es la complejidad de las dinámicas que se pueden capturar, pero también aumenta el riesgo de ruido térmico. La capacidad de los científicos en el País Vasco para gestionar estas tensiones determinará la viabilidad de crear sistemas aún más grandes.
Aunque la demostración de un cristal de tiempo bidimensional es un hito de la física de partículas, el trasfondo operativo para los directivos del sector tecnológico es la validación de una infraestructura que ya es capaz de superar la computación clásica en problemas específicos de simulación de materiales. La pregunta que queda abierta no es ya si la computación cuántica puede modelar la realidad, sino cuánta complejidad adicional puede soportar el sistema antes de que el desorden, necesario para su existencia, termine por colapsarlo. El futuro de la investigación en Euskadi se encamina ahora a probar los límites de esta robustez en entornos de computación masiva, donde la frontera entre lo cuántico y lo clásico es cada vez más difusa.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.