Estás leyendo
De centros de datos a fábricas de inteligencia: el nuevo paradigma de Nvidia

De centros de datos a fábricas de inteligencia: el nuevo paradigma de Nvidia

  • Nvidia transforma la arquitectura de supercomputación con Grace Blackwell y CUDA-Q, pasando del almacenamiento de datos a la generación de inteligencia contextualizada.
NVIDIA

La evolución de la infraestructura tecnológica está alcanzando un punto de inflexión marcado por la convergencia entre supercomputación, computación cuántica y sistemas acelerados de propósito general. Durante su intervención en el  GTC París 2025 , en el marco del VivaTech 2025, Jensen Huang presentó una serie de desarrollos que redefinen las capacidades de cómputo a gran escala y apuntan a una transición profunda en la forma en que las organizaciones diseñan, despliegan y explotan sus recursos computacionales.

Las transformaciones presentadas por Nvidia no afectan únicamente al hardware, sino que alcanzan también al modelo operativo de los centros de datos, al papel emergente de la computación cuántica y a la consolidación de arquitecturas unificadas para la generación de inteligencia.

La transformación del centro de datos en fábrica de IA

Uno de los conceptos clave introducidos por Huang fue el de fábrica de inteligencia artificial, un nuevo tipo de infraestructura que difiere en su diseño, operación y propósito respecto al centro de datos tradicional. En lugar de almacenar y servir datos, estas instalaciones están diseñadas para generar tokens inteligentes mediante modelos de IA. Es decir, no son depósitos pasivos de información, sino unidades productivas activas que convierten datos y energía en capacidad de inferencia.

Para hacer viable este enfoque, Nvidia rediseñó toda la arquitectura física y lógica de sus sistemas. El núcleo de esta transformación es el sistema Grace Blackwell GB200, una plataforma de supercomputación diseñada desde el inicio para ejecutar cargas de trabajo de IA intensivas en inferencia y razonamiento.

Grace Blackwell GB200: diseño y rendimiento

El sistema GB200 representa una evolución respecto a generaciones anteriores como Hopper o Volta. Su diseño integra:

  • 144 GPUs Blackwell, dispuestas en 72 paquetes dobles.
  • Conectividad mediante NVLink de cuarta generación, una interconexión directa de tipo “compute fabric” con una velocidad agregada de hasta 130 terabytes por segundo.
  • CPU Grace integradas directamente en el módulo computacional, eliminando la separación tradicional CPU-GPU.
  • Refrigeración líquida integral y un diseño modular escalable.

Este diseño permite construir una unidad lógica de cómputo distribuido que se comporta como una única GPU virtual de gran escala. En términos operativos, cada rack puede superar el rendimiento del superordenador Sierra de 2018 (10 MW), pero con solo 100 kilovatios de consumo eléctrico.

Según Huang, esta capacidad de escalado vertical es esencial para los nuevos modelos de IA que requieren razonamiento iterativo y generación de miles de tokens por tarea. La arquitectura está diseñada para maximizar la generación de tokens por segundo por usuario, y al mismo tiempo optimizar la densidad de rendimiento por metro cuadrado y por vatio.

NVLink y el concepto de «backplane computacional»

La interconexión NVLink no es simplemente una red de alta velocidad. Es una evolución hacia lo que Huang definió como espina dorsal computacional o “compute spine”. A diferencia de las redes Ethernet tradicionales, NVLink ofrece semántica de memoria compartida y baja latencia, permitiendo que todos los nodos computen como si formaran parte de un único sistema coherente.

La espina dorsal NVLink se construye con cableado coaxial de cobre de alta densidad, lo que permite comunicaciones sin bloqueo entre todos los chips. En total, la espina puede manejar un tráfico superior al tráfico agregado de Internet global en su pico diario.

Esta infraestructura es clave para escalar modelos de IA que requieren reflexión interna, búsqueda de rutas múltiples, razonamiento secuencial o ejecución en paralelo de cadenas de pensamiento. El sistema está optimizado para casos de uso de alta concurrencia como LLMs agénticos, IA científica y simulaciones físicas complejas.

Computación cuántica: una transición hacia lo híbrido

En paralelo al desarrollo de supercomputación clásica, Huang destacó que la computación cuántica ha alcanzado lo que definió como su punto de inflexión. Tras décadas de avances lentos, en 2023 Google logró la demostración del primer qubit lógico, y el número de qubits lógicos —gracias a la corrección de errores— comienza a crecer de forma sostenida.

Nvidia, anticipando esta evolución, presentó CUDA-Q, una extensión de su pila de computación acelerada que permite:

  • Desarrollar algoritmos cuánticos sobre GPU (simulación o emulación).
  • Ejecutar cargas híbridas cuántico-clásicas en combinación con QPUs reales.
  • Integrar simuladores cuánticos en entornos preexistentes de supercomputación.

CUDA-Q es compatible con la arquitectura Grace Blackwell, lo que permite ejecutar algoritmos cuánticos en hardware existente sin necesidad de hardware cuántico operativo. Esta aproximación es estratégica para acelerar la adopción, ya que posibilita desarrollar, validar y optimizar algoritmos antes de que las plataformas cuánticas físicas estén disponibles a gran escala.

Modelo de computación híbrida QPU + GPU

En la visión de Nvidia, los superordenadores del futuro inmediato combinarán procesadores cuánticos (QPU) y gráficos (GPU) en una arquitectura compartida. Las QPU ejecutarán la parte cuántica del algoritmo, mientras que las GPU se encargarán de:

Te puede interesar
Inteligencia Artificial - Entorno laboral

  • Preprocesamiento de datos de entrada.
  • Control del estado cuántico y corrección de errores.
  • Postprocesamiento de resultados y gestión de datos clásicos.

Esto no es solo una solución de compatibilidad, sino una exigencia técnica. La corrección de errores cuánticos, por ejemplo, requiere millones de operaciones clásicas por cada paso cuántico, lo que justifica el uso intensivo de GPUs como coprocesadores en entornos cuánticos reales.

La supercomputación como motor de soberanía digital

La presentación también abordó el papel estratégico de la supercomputación en Europa. Según Huang, la infraestructura de IA es una nueva dimensión de soberanía tecnológica. Por ello, Nvidia está trabajando con centros nacionales de supercomputación, universidades y gobiernos para desplegar capacidades locales de cómputo a gran escala. Destacó, entre otros, al Barcelona Supercomputing Center y al ecosistema francés como actores clave en el desarrollo de capacidades autóctonas.

La proyección es clara: en los próximos dos años, la capacidad instalada de computación IA en Europa aumentará por un factor de 10. Esta infraestructura se considera ya parte del tejido industrial europeo y clave para sectores como energía, salud, defensa, manufactura y educación superior.

Una infraestructura de propósito inteligente

La evolución del hardware presentada en GTC París no puede entenderse como una simple mejora de rendimiento. Supone una redefinición funcional de la infraestructura computacional. Se pasa del cómputo transaccional (almacenamiento, consulta, procesamiento) al cómputo inferencial, donde el objetivo es generar inteligencia contextualizada y útil.

En este nuevo escenario:

  • Los sistemas se diseñan para pensar, no solo para procesar.
  • Las arquitecturas se optimizan para modelos agénticos, no solo para redes neuronales.
  • Y las instalaciones físicas se conciben como fábricas de productos digitales (tokens) más que como almacenes de datos.

La combinación de supercomputación de propósito específico con simulación cuántica marca un cambio de etapa. Lo que antes eran capacidades reservadas a gobiernos o centros científicos de élite, comienza ahora a integrarse en las estrategias operativas de empresas tecnológicas, industriales y logísticas. En este contexto, comprender el nuevo paradigma no es solo una ventaja competitiva, sino una necesidad estructural.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad