La gestión de infraestructuras críticas en España está atravesando un cambio de paradigma donde la ubicación física del dato ya no es una cuestión secundaria, sino el núcleo de la estrategia operativa. Kyndryl ha anunciado una ampliación de sus servicios de nube distribuida en colaboración con Google Cloud, una decisión que llega en un momento en el que las empresas del Ibex 35 y los organismos públicos se enfrentan al dilema de cómo escalar modelos de inteligencia artificial sin vulnerar los marcos de soberanía europeos. Esta alianza plantea una cuestión de fondo: ¿es posible mantener la agilidad de la nube pública operando bajo el control estricto de un centro de datos local?
La arquitectura técnica se apoya en Google Distributed Cloud (GDC) y la modernización de aplicaciones mediante Google Kubernetes Engine (GKE). No se trata solo de mover servidores de un lugar a otro. La operatividad real reside en habilitar que las cargas de trabajo de nube distribuida funcionen de manera consistente tanto en la periferia (edge computing) como en instalaciones «on-premise». El mercado español, especialmente en sectores con alta carga regulatoria como la banca y la sanidad, exige que los datos sensibles no crucen fronteras digitales inciertas. Kyndryl busca responder a esta fragmentación mediante un modelo que permite a las organizaciones ejecutar procesos «cloud-native» allí donde el rendimiento o la normativa lo exijan, eliminando la latencia que penaliza a los sistemas centralizados.
El contexto regulatorio actual, marcado por normativas como DORA en el sector financiero o el Esquema Nacional de Seguridad en España, ha vuelto obsoleta la idea de una nube única y homogénea. Las empresas se encuentran con entornos híbridos que, con frecuencia, derivan en silos de información y costes ocultos por la salida de datos. Según detalla la tecnológica, la integración de estas soluciones pretende estandarizar la gobernanza y la seguridad, ofreciendo un plano de gestión único para infraestructuras que, físicamente, están dispersas.
Uno de los puntos de fricción habituales en la adopción de la nube distribuida es la complejidad de gestionar contenedores a gran escala. Aquí entra en juego la automatización. El uso de herramientas como Gemini Enterprise busca actuar como un asistente capaz de simplificar los procesos de despliegue, permitiendo que los equipos de IT se enfoquen en la lógica de negocio y no en la fontanería de la infraestructura. Sin embargo, la implementación de IA soberana requiere algo más que software; exige una arquitectura que entienda que el dato tiene gravedad y que, a menudo, no puede ni debe moverse de su origen.
La flexibilidad para mover cargas de trabajo entre la nube privada y la pública, conforme evolucionen las necesidades del negocio, es quizás el valor más tangible de esta propuesta. En lugar de quedar atrapados en un modelo rígido, los directivos pueden ajustar su estrategia de infraestructura en función de los costes operativos o de nuevos requisitos de cumplimiento. Es un avance hacia una infraestructura donde el hardware y la ubicación se vuelven transparentes para el desarrollador, pero permanecen bajo el control total del responsable de cumplimiento.
El despliegue de estas capacidades también tiene una lectura clara en términos de eficiencia. Al procesar la información cerca de donde se genera, las empresas reducen la dependencia de grandes anchos de banda y mejoran la respuesta de sus aplicaciones en tiempo real. Para una planta industrial o un centro logístico automatizado, los milisegundos de latencia que ahorra la nube distribuida se traducen directamente en productividad y seguridad operativa.
A medida que el ecosistema tecnológico español madura, la discusión se aleja del hecho de usar la nube para centrarse en cómo hacerlo de forma segura y eficiente. La apuesta por la nube distribuida señala una dirección clara: el futuro de la infraestructura empresarial no está en un solo lugar, sino en todas partes a la vez, siempre que la gobernanza sea centralizada y el dato permanezca soberano. El reto para las organizaciones será ahora integrar estas capacidades sin añadir una capa de complejidad técnica que termine lastrando la misma agilidad que pretenden conseguir.
La capacidad de una organización para escalar su inteligencia artificial dependerá, en última instancia, de lo robusta y flexible que sea la base sobre la que descansan sus datos. En un entorno donde la regulación europea seguirá endureciéndose, disponer de una infraestructura que nazca preparada para la soberanía no es una ventaja competitiva, sino una condición necesaria para la supervivencia operativa.