Estás leyendo
Fsas Technologies muestra en Madrid su hoja de ruta cuántica y de supercomputación

Fsas Technologies muestra en Madrid su hoja de ruta cuántica y de supercomputación

  • Fsas Technologies detalla en Madrid su estrategia cuántica, el procesador Monaka y su modelo Vendor+ para impulsar centros de datos críticos e IA avanzada.
Fsas Technologies Summit Tour 2025

Fsas Technologies presentó en Madrid las bases de su estrategia para integrar inteligencia artificial, centros de datos de alto rendimiento y computación cuántica. La compañía, recién escindida de Fujitsu en Europa, utilizó la parada española de su Summit World Tour 2025 para detallar cómo quiere posicionarse en un mercado donde la eficiencia energética, la resiliencia de datos y el desarrollo de arquitecturas avanzadas se han convertido en factores críticos.

El evento, séptima escala de un recorrido europeo que ya ha pasado por Portugal, Estonia, Lituania, Finlandia, Holanda y Bélgica, se planteó como una sesión intensa: IA, quantum, nube híbrida soberana, resiliencia de datos, eficiencia energética y modelos de pago por uso concentrados en una mañana.

El encuentro permitió a Fsas Technologies exponer con mayor detalle el alcance del proyecto tras su separación de Fujitsu y aclarar cómo estructura ahora su oferta de infraestructura avanzada. La compañía explicó el sentido de la escisión, el papel del modelo Vendor+ y la relevancia de España en la estrategia europea de centros de datos, IA y computación cuántica.

En palabras de su director general en España, Gonzalo Romeo, el proyecto nace de una percepción clara de cambio de ciclo: «La razón por la que se crea esta compañía es porque Fujitsu entiende que lo que está pasando ahora mismo a nivel de tecnología es un poco una revolución de estas que de vez en cuando pasan». Esa “revolución” tiene dos motores, según el directivo: la inteligencia artificial que ya está desplegándose y una computación cuántica que aún no ha llegado al mercado masivo, pero para la que quieren estar preparados.

Una escisión de Fujitsu con mandato de infraestructura crítica

Fsas Technologies es el resultado de la separación del negocio de infraestructura de Fujitsu. En España empezó a operar el 1 de febrero de 2025 y fue la primera filial europea en completar esa escisión, antes incluso que Reino Unido. Japón había realizado el movimiento un año antes.

La nueva compañía se define como proveedor de servicios de infraestructura con vocación multimarca. Su mandato es claro: centrarse en centros de datos de alto rendimiento, infraestructuras para IA, supercomputación y entornos híbridos complejos, dejando en segundo plano otros segmentos más generalistas. Romeo lo resume así: su foco son «soluciones en las que haya que montar un entorno tecnológico con unas demandas de consumo específicas, de cooling específico, de rendimiento específico, y que por lo tanto necesiten una arquitectura compleja de diseñar, compleja de instalar y compleja de mantener».

Una parte crucial del relato es el concepto Vendor+. Fsas no quiere presentarse como un fabricante cerrado, sino como un integrador que combina sus propios sistemas con los de otros actores del mercado. El director general lo expresó sin rodeos: «Fujitsu es el único fabricante del mercado que no plantea las soluciones en base a la tecnología que fabrica, sino incorpora o integra la tecnología que fabrica con todo lo que hay en el mercado». El propio Romeo adelantó que, en el resultado de Fsas España de este año, el producto propio no alcanzará ni el 30 por ciento de las ventas, frente a la importancia de soluciones de Supermicro, NetApp, SUSE u otros socios.

Ekaterina Nurieva, responsable de negocio de plataformas para el noroeste de Europa, recordó que «somos una compañía construida en torno a soluciones fiables y preparadas para el futuro, sensibles a los datos de los clientes y orientadas a garantizar que esa información se almacena de forma segura».

España, banco de pruebas de Fsas Technologies en cuántica y supercomputación

Una de las ideas que se repitió en el encuentro con la prensa tecnológica, en el que participo La Ecuación Digital, es el papel singular de España dentro del grupo Fujitsu. Romeo recordó que, por razones históricas, el país ha recibido una atención especial de la matriz japonesa, lo que se ha traducido en varios centros de referencia con alcance europeo.

Entre ellos citó el Fsas Technologies International Quantum Center en Galicia, donde «hay 15 personas trabajando» y que se creó tras la venta del primer computador cuántico en España, instalado en el CESGA. Allí se da servicio a toda Europa en materia de computación cuántica y emulación.

En Madrid opera el Fujitsu Labs Data Analytics, con 12 investigadores dedicados a inteligencia artificial y genómica, descrito por Romeo como «la joya de la corona» de la compañía al tratarse de un grupo centrado en investigación pura, más orientado a generar tecnología que a ingresos directos. A esto se suma un centro de IA para Europa con 150 profesionales que desarrollan proyectos de integración de inteligencia artificial para toda la región, y un centro de gestión remota de servidores con 260 empleados.

A este mapa se añadirá en breve el primer centro de emulación cuántica en Vizcaya, con tres entornos de emulación basados en tecnología Fujitsu 1.3, que la compañía espera inaugurar entre diciembre y enero. La relación con el Barcelona Supercomputing Center (BSC) también aparece de forma recurrente: llevan «trabajando mil años», en palabras del directivo, y colaboran tanto en supercomputación clásica como en proyectos de emulación cuántica y redes sensoriales.

Para Fsas Technologies, el país funciona ya como un laboratorio donde confluyen supercomputación, IA avanzada y cuántica, algo que refuerza la idea de España como “centro de referencia para toda Europa” dentro del grupo.

Monaka: el procesador que redefine el data center de alto rendimiento

El otro gran personaje técnico del día fue Monaka, el procesador ARM de bajo consumo desarrollado por Fujitsu que se presenta como base de las futuras plataformas de IA y supercomputación del grupo. Romeo lo describió sin ambages: «El Monaka es un procesador de 2 nanómetros, es la primera vez que alguien entrega dos nanómetros en tecnología, y tiene 288 cores«.

Este chip representa un salto respecto al procesador ARM utilizado en el superordenador Fugaku original, que no se comercializó de forma generalizada. Aquella primera generación se diseñó específicamente para el centro de investigación Riken, donde la máquina alcanzó 440 petaflops y llegó a ser número uno mundial. El actual Fugaku consume 40 megavatios y ofrece, según Romeo, «dos hexaflops en computación de IA».

La novedad no es solo técnica. Por primera vez, Fujitsu pondrá a la venta de forma abierta la arquitectura utilizada en su supercomputador estrella. «La gran novedad es que este sí lo vamos a vender», explicó el directivo, antes de detallar los acuerdos con AMD, Nvidia y Supermicro. Con AMD se ha firmado el diseño de servidores de código abierto orientados a entornos de IA exigentes. Con Nvidia, el acuerdo va más allá: Monaka será el procesador base del FugakuNEXT, mientras que las GPUs y el software de la nueva arquitectura correrán a cargo de la compañía estadounidense.

El objetivo para 2030 es que FugakuNEXT alcance «600 hexaflops en IA», lo que supone multiplicar por 300 el rendimiento de IA del sistema actual, manteniendo el mismo consumo energético. Si se cumple este plan, la mejora en eficiencia sería radical. Romeo recordó que «normalmente las nuevas máquinas de supercomputación suelen mejorar 5 o 10 veces», de modo que un salto de 300 veces en IA con el mismo consumo rompe el patrón habitual.

Más allá del superordenador japonés, Fsas quiere llevar esta tecnología al mercado. Monaka se lanzará en tres versiones y se integrará en servidores que podrán fabricar Fujitsu o Supermicro. En un primer momento, su destino principal serán infraestructuras de IA generativa y cargas de trabajo de alto rendimiento. Preguntado por su posible uso generalista, Romeo fue prudente: «En principio van a correr software libre, van a correr Linux, van a correr software stack muy complejo. La idea es dedicarlas a entornos requerimientos de alto rendimiento», aunque no descartó servidores de propósito general más adelante.

La apuesta responde también a una lectura del mapa competitivo. Mientras Nvidia y Fujitsu trabajan con arquitecturas ARM, «todo lo demás son los Intel», que describió como procesadores muy potentes pero con un consumo elevado. El propio Romeo señaló que la Unión Europea está desarrollando un chip de bajo consumo y que «no creo que veamos algo en ese sentido hasta dentro de cuatro o cinco años». De momento, Fsas confía en que Monaka le permita competir en un segmento donde hoy dominan Nvidia, AMD e Intel.

De la emulación a los 10.000 qubits: la hoja de ruta cuántica de Fsas

El otro gran pilar tecnológico del discurso fue la computación cuántica, un terreno donde Fujitsu y Fsas llevan varios años moviéndose entre la experimentación y los primeros contratos comerciales.

Actualmente, la compañía dispone de una máquina cuántica de 256 qubits en Riken y otra instalada en el CESGA, además de desarrollar nuevas generaciones que, según Romeo, seguirán esta secuencia: una máquina de 1.000 qubits el próximo año y un sistema de 10.000 qubits con 250 qubits lógicos en 2030. La clave, insistió, no es solo aumentar el número de qubits físicos, sino la calidad del sistema de corrección de errores.

«La revolución de esa máquina no es el número de qubits, que está bien, es el sistema de corrección de errores que utiliza», explicó. Fujitsu patentó hace alrededor de un año y medio un esquema que permite construir un qubit «fault tolerant» con muchas menos unidades físicas de las que se consideraban necesarias. «Hace unos años se hablaba que para construir un qubit lógico hacían falta 10.000 y 1.000 qubits físicos. Ahora estamos hablando, cuántos son 250 y 10.040. Con 40 qubits físicos, si no lo estoy diciendo mal, construyes uno lógico», detalló.

Ese salto es el que permitiría alcanzar la llamada ventaja cuántica. Hoy, en la práctica, las máquinas disponibles se mueven en rangos de 10 a 20 qubits lógicos, insuficientes para aplicaciones de gran escala. Para casos de uso realmente útiles se habla de unos 50 qubits lógicos; los 250 previstos para 2030 abrirían, según los especialistas, escenarios de «supremacía cuántica».

Mientras tanto, Fsas trabaja en computación cuántica híbrida. En Galicia, el objetivo es construir un middleware que permita lanzar procesos en una máquina clásica y verificarlos o completarlos en un sistema cuántico, combinando hardware real y simulación. La compañía utiliza el entorno de desarrollo Qiskit, promovido por IBM, aunque añade sus propias librerías. «Nosotros trabajamos casi siempre con Qiskit porque es un estándar de mercado», señaló Romeo, antes de matizar que también disponen de desarrollos propios no presentes en el ecosistema de IBM.

La aplicación práctica aún es limitada, pero ya existen casos de uso. El directivo citó un proyecto con Stellantis en el que se ha trabajado con emulación cuántica para optimizar una línea de producción. Los resultados, dijo, son «muy prometedores», pese a haberse realizado con un emulador y no con una máquina cuántica real.

No todo gira en torno a la superconductividad. Además de las máquinas basadas en qubits superconductores —las que utilizan tanto Fujitsu como IBM—, el grupo desarrolla en Holanda un sistema basado en spin de diamante, que requiere menos enfriamiento y promete mayor estabilidad. Romeo recordó que existen muchas otras aproximaciones en el mercado, desde iones atrapados hasta átomos neutros, lo que refleja la diversidad tecnológica del campo.

Te puede interesar
Kit Digital

Resiliencia de datos, eficiencia y modelos de consumo: la otra cara del hardware

Más allá del brillo de Monaka y de los qubits, tanto Nurieva como Romeo insistieron en los problemas diarios que afrontan los CIO: seguridad, resiliencia de datos y costes energéticos.

La responsable europea describió un entorno donde el aumento de ciberataques y amenazas obliga a replantear la forma de almacenar y recuperar la información. Nurieva lo expresó así: «Tenemos que pensar en la resiliencia de los datos. Que los datos estén protegidos, muy bien almacenados y puedan recuperarse sin demora». Su intervención vinculó estos requisitos a la incertidumbre geopolítica, el avance de la IA y la necesidad de mantener control sobre los entornos críticos, un conjunto de factores que devuelve peso a las infraestructuras on-premise frente a una nube pública menos predecible en escenarios sensibles.

Romeo, por su parte, describió un contexto donde el almacenamiento ha dejado de ser solo rendimiento. «El almacenamiento ya no es almacenamiento como tal», señaló, para explicar que prácticamente ningún fabricante puede prescindir de soluciones de protección frente a ransomware. La anécdota de un partner israelí especializado en negociar rescates con atacantes sirvió para ilustrar hasta qué punto esta amenaza se ha normalizado, aunque muchas empresas eviten reconocerlo en público.

El consumo energético es el otro gran condicionante. El ejemplo del BSC es ilustrativo: el centro tiene un límite de 4 megavatios y, aunque disponga de presupuesto, no puede añadir capacidad de cómputo más allá de esa frontera. De ahí la insistencia en arquitecturas más eficientes, soluciones de direct cooling y chips como Monaka, pensados para ofrecer más cálculos por vatio.

En paralelo, Fsas impulsa modelos de nube híbrida donde coexisten cloud y on-premise. La compañía recurre tanto a soluciones consolidadas como VMware como a alternativas que considera más abiertas, entre ellas Proxmox y OpenNebula, esta última de origen español. El modelo de pago por uso, que Fsas comercializa bajo la marca Uscale, aparece como una opción más, no como dogma, después de un periodo en el que se presentó casi como destino inevitable.

La complejidad de los proyectos que maneja Fsas obliga a apoyarse en un canal muy especializado. La compañía cuenta con unas 60 personas en España, «muy especializados en esto de la cuántica y de la IA y del HPC», según Romeo, pero reconoce que los despliegues de centros de datos críticos requieren alianzas.

En el canal, el crecimiento ha sido notable. En los primeros seis meses del año, Fsas ha aumentado un 50,7 por ciento su facturación frente al mismo periodo del año anterior, gracias al trabajo de unos 600 partners, especialmente los catalogados como Advanced y Strategic. Ese ecosistema incluye desde integradores especializados en HPC hasta empresas como Kilimanjaro, que desarrolla computadores cuánticos y ha vendido sistemas al BSC.

Nurieva destacó la importancia de la cercanía geográfica y cultural. «Actuar como un asesor de confianza» fue uno de los conceptos centrales de su intervención: una presencia local fuerte en los mercados europeos que permita soluciones ajustadas, soporte dedicado y una colaboración fluida. En su formulación, «somos una compañía construida en torno a soluciones fiables y preparadas para el futuro, sensibles a los datos de los clientes y orientadas a garantizar que esa información se almacena de forma segura».

La propia directiva resumió el posicionamiento de la compañía con una frase que se ha convertido en lema: «Fsas es la suma de la herencia y la innovación japonesa combinada con la soberanía de datos y los valores europeos». Esa combinación, que condensa tradición industrial, enfoque de ingeniería y sensibilidad regulatoria, es la que la empresa quiere explotar en proyectos de fsas cuántica, IA y datacenter crítico.

El Summit World Tour en Madrid funcionó como escaparate de una estrategia de largo recorrido en la que España aparece como pieza central. Los centros cuánticos y de IA ya operativos, la futura emulación cuántica de Vizcaya, los acuerdos con Riken y el BSC, y el acceso temprano al procesador Monaka sitúan al país en una posición singular dentro de Fujitsu.

La apuesta conlleva riesgos. El mercado cuántico aún está lejos de la madurez, la competencia internacional es intensa y Europa sigue buscando su espacio en un ecosistema dominado por actores estadounidenses y asiáticos. La dependencia de aceleradoras externas, la carrera por los chips de bajo consumo y la necesidad de talento especializado añaden incertidumbre.

Sin embargo, la estrategia que Fsas dibuja en España —una combinación de cuántica, supercomputación eficiente, resiliencia de datos y modelos híbridos— apunta a una dirección clara: la infraestructura dejará de ser un mero soporte para convertirse en un factor de soberanía tecnológica. Los próximos años dirán hasta qué punto esa ambición se traduce en contratos, ecosistema y capacidad real de cómputo al servicio de la ciencia y de la industria.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad