Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
El centro de datos de IA Fairwater, que Microsoft construye en Mount Pleasant (Wisconsin), irrumpe como la pieza central de una oleada de centros y acuerdos de infraestructura en EE. UU., Noruega y Reino Unido para acelerar el despliegue de modelos de IA de frontera y servicios en la nube.
La compañía afirma que esta instalación, un AI factory diseñada para operar como un único superordenador, marcará un salto de rendimiento sin precedentes y se conectará a una red global de más de 400 centros de datos en 70 regiones.
Para Scott Guthrie (EVP, Cloud + AI) el enfoque técnico del campus y los planes paralelos en Narvik (Noruega) con nScale y Aker, y en Loughton (Reino Unido) con nScale para construir el mayor superordenador del país. En un post en la web de la compañía, Brad Smith, presidente de Microsoft, sitúa el proyecto de Wisconsin, que suma ya 7.000 millones de dólares tras un segundo centro anunciado, en el marco de inversión, empleo y sostenibilidad para la región. Ambas piezas permiten entender el alcance y la ambición del programa.

Qué hace diferente a Fairwater
Fairwater ocupa 315 acres y reúne tres edificios con 1,2 millones de pies cuadrados bajo techo, levantados con 46,6 millas de pilotes, 26,5 millones de libras de acero, 120 millas de cable subterráneo de media tensión y 72,6 millas de tubería mecánica. No está optimizado para miles de cargas pequeñas como un cloud tradicional, sino para comportarse como un único superordenador de IA que interconecta centenares de miles de GPUs de NVIDIA mediante una red plana. Microsoft asegura que entregará 10 veces el rendimiento del supercomputador más rápido actual, un reclamo que conviene leer como objetivo propio y no como métrica Top500.
El corazón del sistema son racks GB200 NVL72 de NVIDIA: 72 GPUs Blackwell por rack en un único dominio NVLink, con 1,8 TB/s de ancho de banda GPU-GPU y acceso a 14 TB de memoria compartida. El rack se comporta como un acelerador gigante capaz, según Microsoft, de procesar 865.000 tokens por segundo, cifra que la compañía ya había mostrado en banco de pruebas con sus máquinas ND GB200 v6. A partir del rack, la topología se extiende en pods y después a decenas de miles de GPUs con InfiniBand y Ethernet a 800 Gbps en arquitectura “fat-tree” no bloqueante, y una disposición en dos alturas para reducir latencia física entre racks.
Más allá del cómputo, Microsoft ha adaptado la arquitectura del almacenamiento de Azure para exaescala: cada cuenta de Blob Storage puede sostener más de 2 millones de operaciones por segundo, agregando capacidad y ancho de banda sobre miles de nodos y cientos de miles de discos, con BlobFuse2 para acceso de baja latencia desde los nodos GPU. El objetivo: que los aceleradores no se queden ociosos porque la red o los datos no acompañan.
Refrigeración y energía: sostenibilidad en clave de diseño
Fairwater opera con refrigeración líquida en circuito cerrado (llenado inicial y recirculación continua, sin consumo operativo de agua), apoyado por la segunda mayor planta de enfriadoras por agua del mundo. El agua caliente se impulsa a “aletas” exteriores donde 172 ventiladores de 20 pies la enfrían antes de recircularla al CPD. Microsoft afirma que más del 90 % de su capacidad funciona así; el resto usa aire exterior y recurre a agua solo en picos de calor. En Wisconsin, la compañía prevé además financiar por adelantado la infraestructura eléctrica necesaria y compensar cada kWh de origen fósil con energía libre de carbono, incluyendo un proyecto solar de 250 MW en construcción.
De un edificio a una “AI WAN” global
Microsoft no se limita a un campus. Presenta una AI WAN para orquestar cómputo, almacenamiento y red entre regiones, permitiendo entrenamiento distribuido a gran escala y resiliencia frente a incidencias locales. Es una lectura “multicentro” de supercomputación que, de materializarse, puede cambiar la economía del entrenamiento de modelos y abrir nuevas formas de bursting entre regiones.
Europa: Narvik y Loughton como nuevos polos
En Narvik (Noruega), Microsoft ha firmado un acuerdo multianual con nScale y Aker para un hiperescala de IA alimentado con renovables, reforzando la tesis de aprovechar climas fríos y excedentes hidroeléctricos nórdicos para cómputo de alta densidad. La propia Aker ha comunicado un contrato vinculante a cinco años con Microsoft, hito relevante para la financiación del proyecto.
En Loughton (Reino Unido), Microsoft y nScale construirán el mayor superordenador del país. El campus arrancará con 50 MW (escalable a 90 MW) y 23.040 GPUs NVIDIA GB300 con primeras entregas previstas en el 1T 2027, y se integra en un paquete de inversión tecnológica anunciado en Reino Unido. Para el mercado europeo, esta capacidad añade una alternativa de baja latencia y residencia de datos para cargas de IA críticas.
¿Qué implica para las empresas de España?
España es ya un nodo de primer nivel en la red de Azure con la región Spain Central (Madrid) en funcionamiento y nuevos proyectos en marcha. La disponibilidad local de servicios de IA y residencia de datos permite a las empresas cumplir marcos de soberanía y RGPD, mientras se conectan a capacidades de entrenamiento e inferencia de hiperescala que crecen en EE. UU. y el norte de Europa.
Además, Microsoft ha anunciado inversiones plurianuales en Aragón para nuevos centros, un corredor que se está convirtiendo en hub europeo por conectividad y renovables. Para los CIO españoles, esto significa más opciones de capacidad, compliance y coste-latencia sin renunciar a los beneficios de una red global.
Recomendaciones prácticas para CIO/CTO
- Planificación de capacidad: evaluar ventanas de entrenamiento y disponibilidad de GPU por región; considerar entrenamiento distribuido y fine-tuning cerca del dato (Madrid/UE) y pre-entrenamiento donde haya slots (EE. UU./Nórdicos).
- Arquitectura de datos: preparar pipelines para alto throughput hacia GPU (Blob/ADLS + BlobFuse2) y diseñar caches node-local para minimizar colas.
- Soberanía y cumplimiento: mapear qué fases requieren residencia de datos en la UE y cuáles permiten computación en “regiones amigas” con cifrado/anonimización.
- Sostenibilidad: incorporar KPIs de agua y energía (PUE/WUE) en la compra de cómputo y priorizar regiones con enfriamiento líquido y energía renovable contratada.
- Benchmarking realista: contrastar claims de “10×” con métricas estándar (Top500/HPL-MxP) y pruebas de tokens/s en modelos y prompts propios. Hoy, los ránkings de supercómputo sitúan a El Capitán como nº 1 (junio 2025), por lo que las comparativas deben leerse en su contexto (IA vs HPC clásico).
Perspectiva: potencia, pero también cuellos de botella
La dirección estratégica de Microsoft se orienta a incrementar la densidad de GPU, ampliar la memoria compartida mediante NVLink, desplegar redes no bloqueantes y consolidar la orquestación WAN para evitar cuellos de botella en la E/S o la latencia. El reto inmediato combina dos frentes: garantizar el suministro de chips y asegurar la capacidad energética necesaria.
Aunque la refrigeración líquida en circuito cerrado reduce el consumo de agua y mejora la eficiencia térmica, la magnitud del cómputo obligará a firmar contratos de energía a largo plazo, reforzar la generación renovable y modernizar las redes de transporte. Al mismo tiempo, Europa avanza con proyectos como Narvik y el superordenador de Loughton, que se suman a nodos ya consolidados en Madrid y a nuevas iniciativas en Aragón, configurando un mapa en el que la proximidad al dato y la soberanía tecnológica empiezan a tener un peso tan determinante como los propios TFLOPS.
Para el tejido empresarial español, el mensaje es pragmático: planificar dónde y cómo entrenar, con qué garantías regulatorias, y cuándo aprovechar los saltos de hardware (de GB200 a GB300 en 2027) sin quedar atrapados en la escasez actual. La ventana competitiva está en quienes dominen pipeline, coste total y time-to-model con una arquitectura híbrida entre Madrid/UE y estos nuevos AI hubs.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
