Estás leyendo
Elon Musk quiere llevar «la nube» a las estrellas: SpaceX y la apuesta por centros de datos orbitales

Elon Musk quiere llevar «la nube» a las estrellas: SpaceX y la apuesta por centros de datos orbitales

  • Centros de datos orbitales y conectividad satelital entran en el foco de SpaceX: energía solar, refrigeración en vacío y presión por el cómputo de IA.
SpaceX y la apuesta por centros de datos orbitales

La promesa suena a eslogan, pero se está formulando como hoja de ruta industrial: centros de datos orbitales para sostener el crecimiento de la inteligencia artificial cuando la Tierra empiece a quedarse sin margen eléctrico y térmico.

En esa hipótesis, SpaceX ya no sería solo una empresa de naves espaciales y conectividad, sino el operador de una infraestructura de cómputo “fuera de red”, alimentada por energía solar y con el espacio como disipador. El giro es lo bastante grande como para reordenar, y quizá sostener, el relato de una salida a bolsa que Musk hasta hace poco evitaba.

La pregunta que flota detrás de los titulares no es “si es ciencia ficción”, sino otra más incómoda: si el cuello de botella de la IA se parece cada vez más a un problema de energía e ingeniería civil, ¿Qué actor tiene incentivos y herramientas para moverlo de sitio?

Centros de datos orbitales: cuando el límite no son los chips, sino la energía

El punto de partida del argumento es terrenal y prosaico: el crecimiento del cómputo para IA está chocando con la disponibilidad de energía, tiempos de construcción y fricciones locales. Un ejemplo reciente que se pone sobre la mesa es Oracle, con un gasto de capital de 12.000 millones de dólares en un trimestre y un flujo de caja libre negativo de 10.000 millones, en un contexto en el que su dirección vincula ese esfuerzo a la demanda de infraestructura para IA. La reacción del mercado, caída aproximada del 10% tras resultados, se ha leído como síntoma de un modelo que tensiona caja y paciencia inversora.

A esa foto se superpone otra más estructural: hiperescalares “peleando por conseguir suficiente electricidad”, retrasos de conexión a red en zonas como Silicon Valley o Virginia, y proyecciones que llevan el consumo ligado a IA a magnitudes comparables a una fracción relevante de la generación media estadounidense. En el debate circula una estimación “brutal” (100–200 GW en 10–15 años para IA en EE.UU., frente a unos 490 GW de generación media) y también una previsión de Goldman Sachs: incremento del 165% en demanda energética global de centros de datos hacia 2030, impulsada por IA.

Aquí aparece el primer matiz importante: el debate no es solo económico. También es térmico e hídrico. Muchos centros de datos dependen de sistemas que evaporan grandes volúmenes de agua para refrigeración, con tensiones locales añadidas. Cuando la discusión sobre IA llega a ayuntamientos y reguladores, rara vez entra por la arquitectura de modelos; entra por consumo eléctrico, agua, calor residual y permisos.

El posible IPO de SpaceX en 2026 como palanca para un cambio de escala

En ese contexto, se ha señalado un punto de inflexión financiero: informes de Bloomberg y CNBC que apuntan a que SpaceX se estaría preparando para salir a bolsa hacia 2026, buscando una valoración cercana a 1,5 billones de dólares y levantar más de 30.000 millones. Musk habría respondido en X que las informaciones eran “acertadas”, una confirmación implícita del rumbo. La comparación es directa: superaría el récord de captación de Saudi Aramco en 2019.

Lo relevante aquí no es la cifra en sí, sino en qué podría emplearse ese capital. La lectura que se plantea es que la motivación del mega-IPO no sería financiar turismo espacial o colonias marcianas, sino integrar IA en servicios y, sobre todo, construir centros de datos en el espacio. Si esa asignación se consolidara, SpaceX estaría pidiendo al mercado que la valore como compañía de infraestructura computacional, no solo como contratista aeroespacial y operador satelital.

Esa transición, además, tiene una rareza: SpaceX puede argumentar integración vertical completa, cohetes, satélites, infraestructura de lanzamiento y una empresa de IA (xAI), algo poco habitual cuando el activo crítico deja de ser el chip y pasa a ser “quién pone el hardware donde hay energía y lo conecta con baja latencia”.

De Starlink a “mini data centers”: conectividad por satélite como columna vertebral

La idea técnica que se está moviendo no es montar un “data center monolítico” en órbita desde el día uno, sino algo más granular: satélites tipo Starlink evolucionados a nodos de cómputo, “mini data centers” con paneles solares, antenas, enlaces láser y GPUs o chips especializados.

Aquí la conectividad por satélite deja de ser un producto final, internet desde el espacio, y pasa a ser la capa de transporte del propio centro de datos distribuido. Starlink V2 ya incorpora enlaces láser y paneles solares grandes (alrededor de 30 m²) y se espera que la generación V3 suba la capacidad, con una cifra orientativa de ~1 Tbps de throughput por satélite V3, frente a ~100 Gbps en V2 mini. Si el cómputo se reparte en cientos o miles de nodos, la interconexión óptica no es un accesorio: es la “placa base” del sistema.

La discusión suele esquivar un punto práctico: mover cómputo al espacio obliga a mover datos hacia el espacio y de vuelta. Para inferencia, se ha defendido que la latencia en LEO (~500 km) añade del orden de 3–10 ms frente a un servidor cercano, viable para muchas aplicaciones. Para entrenamiento masivo, el problema se desplaza al throughput (enlaces ópticos de altísimo caudal) y a estrategias como procesar datos que “ya nacen” en el espacio (observación terrestre, imágenes) para reducir bajadas de bruto.

A partir de ahí se perfila una arquitectura híbrida: parte del servicio seguirá en tierra, parte se elevará a órbita, y el sistema de orquestación decidirá qué tareas son sensibles a latencia y cuáles son, simplemente, hambrientas de energía.

Energía solar 24/7 y refrigeración en vacío: el “por qué” físico de la órbita

La ventaja física se resume en dos ideas: “en el espacio siempre es de día” y el vacío permite radiar calor hacia el “frío” del espacio profundo. Con matices, pero con un vector claro.

En energía, el argumento es continuidad: un satélite puede estar iluminado gran parte del tiempo según la órbita, reduciendo dependencia de baterías y, sobre todo, de redes eléctricas terrestres y sus permisos. En refrigeración, la promesa es eliminar consumo de agua y simplificar la disipación: radiadores que expulsan calor en infrarrojo hacia un entorno extremadamente frío. No es magia: en el vacío no hay convección, solo radiación, así que hacen falta superficies de radiador grandes. Aun así, cambia la naturaleza del problema, de “cómo consigo agua y potencia” a “cómo diseño área y masa para disipar”.

Ese desplazamiento de restricciones explica por qué la conversación ha escalado en 2025: no se trata solo de “poner servidores arriba”, se trata de sacar del tablero terrestre dos de las variables más conflictivas, electricidad y agua, y convertirlas en diseño de sistemas espaciales.

Las cifras de Musk y el salto de fe industrial

Musk ha introducido números que mezclan ambición y provocación: en un post del 19 de noviembre de 2025 en X habría afirmado que Starship podría lanzar unos 300 GW al año en satélites de IA solares, potencialmente hasta 500 GW al año, y que 300 GW/año implicaría que en dos años se podría desplegar capacidad equivalente al consumo eléctrico total anual de EE.UU., asumiendo potencia sostenida frente a un promedio económico de ~500 GW. También ha apuntado que la producción mundial de paneles solares ya supera 1500 GW/año, sugiriendo viabilidad de fabricación desde el lado fotovoltaico, mientras señala a los chips como verdadero factor limitante y menciona la necesidad de una “Tesla Terafab”.

El freno cuantitativo aparece rápido: si un Starlink V3 generase del orden de ~100 kW eléctricos (se etiqueta como especulativo, “decenas de kW”), alcanzar 300 GW exigiría millones de satélites al año, algo hoy imposible frente a un historial de ~6.000 satélites Starlink lanzados en cuatro años acumulados. En la práctica, esas cifras solo cerrarían con satélites mucho mayores, lanzamientos a cadencias inéditas o incluso fabricación in situ. Ahí encaja la idea de producir satélites solares en la Luna para escalar a 100+ TW/año: no como postal futurista, sino como hipótesis industrial cuando la logística terrestre deja de cuadrar.

Radiación, fallos y una filosofía distinta: reemplazar en vez de reparar

El espacio castiga la electrónica. Se distinguen radiación solar, rayos cósmicos y cinturones de Van Allen, con efectos como SEU (bit flips), SEL (latchup) y TID (daño acumulativo). También hay una brecha entre la computación espacial “tradicional”, basada en chips protegidos contra la radiación (rad-hard), caros y desactualizados al el tipo de cómputo que exige la IA. Se ha recordado, por ejemplo, el uso histórico de procesadores RAD750 en la ISS con frecuencias del orden de 200–400 MHz, claramente insuficientes para IA moderna.

La alternativa es un cambio de paradigma: usar chips comerciales con mitigación por software y arquitectura, corrección de errores (ECC), redundancia, watchdogs, reinicios automáticos y ciclos de alimentación ante latchups. Como prueba de viabilidad se ha citado Starcloud-1, un satélite de ~60 kg que voló con un NVIDIA H100 y ejecutó un modelo de lenguaje (Gemma) en órbita, con una interacción similar a una nube terrestre según su CEO.

La clave económica, conectada a SpaceX, es aceptar que en órbita no hay técnicos reemplazando piezas. La fiabilidad se logra por diseño y, sobre todo, por reposición: Starlink ya opera con ciclos de vida de ~5–7 años, de modo que la degradación por radiación se gestiona desorbitando y sustituyendo. Es una lógica “cloud” aplicada al espacio: hardware imperfecto, software tolerante, y renovación continua si puedes lanzar barato y a menudo.

Un modelo de negocio todavía borroso, pero reconocible

No se ha presentado públicamente un modelo de negocio detallado (precios, SLA, APIs), y se interpreta como deliberado. Aun así, se puede dibujar un esquema plausible que no copia AWS. La hipótesis es que SpaceX sería propietaria de la infraestructura orbital y Starlink la capa comercial y operativa, evolucionando de ISP a proveedor de infraestructura computacional orbital.

La parte más sustantiva es cómo se cobraría: no por tokens u horas GPU al estilo cloud retail, sino por contratos mayoristas de capacidad, “megavatios reservados”, ventanas temporales y throughput garantizado. Incluso se sugiere una fase posterior de mercado spot, parecido a mercados eléctricos, donde la unidad económica real no es la GPU sino el megavatio sostenido.

Ese enfoque encaja con una lectura estratégica: no vender “IA en el espacio”, sino vender acceso a energía computacional cuando sea escasa en tierra. Bastaría con que 5–10 actores globales dependieran de esa capacidad en momentos críticos para generar poder de fijación de precios y, por extensión, un vector geopolítico.

Te puede interesar
Misión Génesis: la apuesta de Trump para reordenar la ciencia con IA

No está solo: Bezos, Google, Schmidt y la carrera por la órbita

Aunque el relato tienda a girar alrededor de Musk, el mercado se está moviendo.

Jeff Bezos habría dicho en octubre de 2025 que “habrá centros de datos de gigavatios en el espacio en 10+ años”, y se sostiene que Blue Origin llevaría más de un año trabajando en tecnología para centros de datos orbitales, con New Glenn como pieza de despliegue.

Google aparece con “Project Suncatcher”, anunciado en noviembre de 2025: dos satélites prototipo en 2027 con TPUs “Trillium” y enlaces láser, y la idea de que a mediados de la década de 2030 podría ser competitivo por caída de coste de lanzamiento hacia ~200 dólares/kg. También se describe un movimiento revelador: Eric Schmidt habría adquirido control de Relativity Space en 2025 para asegurarse capacidad de lanzamiento, y habría defendido ante el Congreso de EE.UU. que los requerimientos energéticos de la IA son insostenibles y “habrá que reubicarlos en órbita”.

En startups, además de Starcloud, encontramos a Aetherflux con el proyecto “Galactic Brain” y el objetivo de lanzar un primer satélite “data center” en el primer trimestre de 2027, con foco inicial en inferencia y computación general, y con una lógica similar de renovación de hardware.

Este mosaico introduce un contrapunto: incluso si SpaceX tiene ventaja por flota existente y cadencia potencial, el mercado se está configurando como carrera industrial, no como idea solitaria.

Los frenos reales: escala, Starship, regulación y basura espacial

Hay problemas que no se arreglan con narrativa.

El primero es Starship. Se han recordado fallos en vuelos de prueba de 2023 y 2025, y sigue pendiente demostrar reentrada y reutilización rápida. La visión de “cientos de vuelos anuales” para sostener despliegues masivos se reconoce como un riesgo clave, incluyendo la dimensión regulatoria (por ejemplo, una suspensión de vuelos por la FAA tras el primer test por impacto ambiental). Si Starship no cumple plazos, la ventaja se estrecha.

El segundo es térmico y de fiabilidad: aunque el espacio sea “frío”, un satélite al sol puede superar 120 °C en superficie y luego bajar a -20 °C en eclipse, con ciclos térmicos y disipación radiativa que exigen ingeniería, masa y área. No basta con “poner el servidor al vacío”.

El tercero es orbital: más satélites implica más congestión, más riesgo de colisión y más presión política. El síndrome de Kessler aparece como temor, y también la posibilidad de que reguladores (FAA, FCC, ITU) impongan límites o requisitos más estrictos. A eso se suma una pregunta menos técnica y más jurídica: soberanía de datos y jurisdicción de procesamiento en órbita.

Incluso si la tesis física es sólida, la transición probablemente sea gradual, con pruebas en 2026, servicios nicho primero (por ejemplo, procesamiento de imágenes satelitales in situ) y expansión durante la próxima década. Jensen Huang (Nvidia) ha llegado a calificar los data centers espaciales como “un sueño por ahora”, aunque también ha reconocido que para centros de datos de clase teravatio “no hay manera” sin ir al espacio.

Lo que realmente cambia si la “nube” se convierte en órbita

Mirado desde España, donde la conversación sobre centros de datos ya está atravesada por disponibilidad eléctrica, permisos y debate territorial, la hipótesis orbital introduce una competencia inesperada: no entre regiones, sino entre jurisdicciones y capas de infraestructura.

El valor estratégico no reside solo en tener más potencia de cómputo, sino en controlar la capa de infraestructura durante décadas. Ahí reaparece la pregunta inicial, la que no se responde con un cohete espacial: qué parte de la economía digital se permite depender de una infraestructura que opera fuera de la Tierra, con sus riesgos, su regulación emergente y su concentración de poder.

En esa tensión vive el posible IPO: la bolsa suele premiar narrativas de crecimiento, pero también penaliza promesas que aún no se convierten en ingeniería, cadencia y contratos. Si Starlink se consolida como red y “bus de cómputo” y Starship hace rutinario lo que hoy es excepcional, SpaceX habrá redefinido dos industrias a la vez. Si no, el mercado habrá financiado, a precio de gigante, una transición que todavía no tiene calendario operativo.

Por ahora, la derivada queda abierta y, en cierto modo, es lo más revelador: el sector está empezando a hablar de energía y refrigeración como si fueran el roadmap de la IA, y eso desplaza el tablero desde el software hacia la infraestructura física. Cuando ocurre ese cambio de narrativa, suelen moverse también los centros de gravedad.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad