Estás leyendo
Google anticipa la red de inteligencia artificial que el resto del mundo usará en 2028

Google anticipa la red de inteligencia artificial que el resto del mundo usará en 2028

  • Google adelanta al mercado con Firefly, Falcon y Swift, tecnologías de red que anticipan la infraestructura de IA que se prevé para 2028.
Redes

Google está probando en sus centros de datos una red diseñada para la nueva era de la inteligencia artificial, capaz de sincronizar millones de procesadores con una precisión sin precedentes. Una infraestructura que podría convertirse en estándar en 2028, pero que la compañía ya despliega para entrenar sus modelos de próxima generación.

El fin de una era y el inicio de otra

La Ley de Moore impulsó la industria durante décadas con chips cada vez más potentes y baratos. Sin embargo, el auge de la inteligencia artificial generativa (GenAI) ha puesto el foco en un nuevo cuello de botella: la red. Hoy, los procesadores gráficos (GPUs) que cuestan más de 40.000 dólares trabajan a solo un 25-35 % de su capacidad real, bloqueados por la lentitud de la comunicación entre nodos dentro de los clústeres de entrenamiento de IA.

Este desafío marca lo que Amin Vahdat, vicepresidente de infraestructura de IA en Google, definió como el “quinto gran ciclo de la computación distribuida” durante la conferencia Hot Interconnects 32. Según informó Next Platform, la industria debe reinventar sus redes para soportar cargas de trabajo que ya exigen incrementos de 10 veces en capacidad de cómputo por año.

De la escala horizontal al reto de la sincronización

En los años 2000, las empresas pasaron de sistemas de memoria compartida (SMP, NUMA) a arquitecturas distribuidas, con miles de servidores trabajando en paralelo. El principio de que la red es el ordenador se consolidó, pero con él llegó una limitación: el tráfico de datos.

Hoy, entrenar un modelo como Gemini implica que decenas de miles de GPUs intercambien datos de forma síncrona. El problema no es solo de ancho de banda, sino de predecibilidad: basta con que un nodo se retrase unos milisegundos para frenar a todo el clúster.

Firefly: el metrónomo de los centros de datos

La respuesta de Google es Firefly, un sistema de sincronización de relojes que coordina cada flujo de datos en sus centros de datos con precisión de menos de 10 nanosegundos. Esta innovación será presentada oficialmente en septiembre en la conferencia SIGCOMM 2025 en Portugal.

La idea es simple en concepto, pero revolucionaria en impacto: convertir la red de un sistema reactivo —donde los paquetes de datos compiten por recursos— en una infraestructura determinista y planificada, donde cada transferencia está coreografiada.

Falcon y Swift: control del tráfico y transporte fiable

Firefly no llega solo. Google combina varias tecnologías para transformar la eficiencia de sus clústeres:

  • Swift: un método de control de congestión que ajusta dinámicamente la velocidad de transmisión para evitar saturaciones.
  • Falcon: un nuevo protocolo de transporte implementado en procesadores de red (DPUs) desarrollados con Intel. Según pruebas internas, ofrece hasta 10 veces más operaciones por segundo con una décima parte de la latencia respecto a soluciones anteriores.

Ambas tecnologías buscan un objetivo común: que cada GPU o XPU (procesador acelerador) trabaje al máximo rendimiento sin tiempos muertos.

Te puede interesar
La inteligencia artificial transforma el desarrollo de software empresarial

Straggler Detection: el cazador de fallos invisibles

La última pieza de esta red del futuro es un sistema de detección de stragglers, o nodos que, sin fallar por completo, funcionan mucho más lentos que el resto y bloquean el rendimiento global. Google afirma que su tecnología reduce de días a minutos el tiempo necesario para localizar y aislar estos problemas, gracias a un análisis en tiempo real de la telemetría de cada dispositivo de la red.

Implicaciones empresariales en Europa

Para empresas y administraciones en España y la UE, este salto tecnológico tiene varias implicaciones:

  • Coste y eficiencia: entrenar modelos de IA requiere inversiones millonarias en GPUs. Tecnologías como Firefly y Falcon prometen aprovechar mucho mejor estos recursos, lo que podría reducir barreras de entrada en el sector.
  • Soberanía tecnológica: Europa trabaja en iniciativas como IPCEI-CIS y en la futura Ley Europea de Chips. La dependencia de tecnologías propietarias de Google, Intel o Nvidia puede condicionar la autonomía estratégica en IA.
  • Competencia en la nube: si Google estandariza su red de quinta generación antes que rivales como Microsoft Azure o Amazon Web Services, podría reforzar su posición en servicios de IA en la nube, presionando a los proveedores europeos a acelerar su innovación.
  • Estandarización abierta: gran parte de estas tecnologías no se han liberado a la comunidad (a diferencia de iniciativas del Open Compute Project). Esto plantea el riesgo de redes fragmentadas y de difícil interoperabilidad.

Hacia 2028: una red pensada para la IA

El panorama es claro: entrenar modelos de IA de próxima generación exigirá clústeres de millones de procesadores trabajando como un único sistema sincronizado. La red dejará de ser un soporte para convertirse en el elemento central que define la eficiencia y el coste de la inteligencia artificial.

Lo que el mercado espera alcanzar hacia 2028, Google ya lo está desplegando en sus centros de datos. La gran incógnita es si esta ventaja se traducirá en un dominio prolongado de la compañía en el mercado de la IA o si los esfuerzos de estandarización en Europa y Estados Unidos lograrán equilibrar el terreno.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad