Estás leyendo
El fin del almacenamiento pasivo: NetApp y la infraestructura de datos inteligente

El fin del almacenamiento pasivo: NetApp y la infraestructura de datos inteligente

  • NetApp cerró en Madrid su gira global con una estrategia centrada en IA, nube híbrida, ciberresiliencia y soberanía del dato sobre una plataforma unificada.
NetApp Insight Xtra Madrid

NetApp utilizó su cita de Madrid para hacer algo más que enseñar producto. El cierre de su ciclo global de INSIGHT XTRA, celebrado en el estadio Santiago Bernabéu tras pasar por ciudades como París, Milán, Singapur, Tokio o Sídney, sirvió para poner orden en un mensaje que la compañía lleva varios años construyendo, aunque ahora intenta formularlo con más precisión: en la etapa de la inteligencia artificial, el problema ya no es solo dónde guardar datos, sino cómo convertirlos en una base operable, gobernable y segura para que la IA tenga impacto real en negocio. Según trasladó la dirección de NetApp Iberia, el ciclo ha reunido cerca de 7.000 participantes y la edición madrileña actuaba como colofón de una gira de quince eventos.

Ese cierre también tenía algo de balance interno. Maite Ramos, directora general de NetApp Iberia, recordó que NetApp cumple 34 años a escala global y 26 en Iberia, y vinculó esa trayectoria a un momento de fuerte rendimiento comercial en la región: crecimiento superior al 43% frente al ejercicio anterior, liderazgo en almacenamiento de altas capacidades en España y presencia en más del 90% de las empresas del Ibex.

Maite Ramos, directora general de NetApp Iberia
Maite Ramos, directora general de NetApp Iberia

Añadió otro mensaje menos habitual en una apertura de evento, pero revelador del enfoque que quiso transmitir la filial: la tecnología, dijo, no se sostiene sin un equipo detrás, y la compañía reivindicó tener el mayor grupo dedicado exclusivamente a almacenamiento y gestión de datos en la región. No fue una introducción ornamental. Sirvió para presentar el evento como una lectura empresarial del mercado, no solo como una exhibición técnica.

A partir de ahí, el relato se articuló alrededor de cuatro pilares, modernización de infraestructura, inteligencia artificial, cloud y ciberresiliencia, que NetApp planteó no como áreas aisladas, sino como partes de una misma ecuación. Ramos dejó una idea que luego se repitió durante toda la jornada: la modernización de la infraestructura es la base sobre la que descansa todo lo demás; sin ese paso previo, la promesa de la IA se queda en una capa superficial.

También subrayó que el cloud ha pasado a ser una pieza estratégica por la situación geopolítica y por la conversación creciente sobre soberanía del dato, mientras que la seguridad no podía presentarse como una función complementaria en un momento en que, en palabras de la directiva, no hay IA posible si los datos no están protegidos.

El verdadero valor del dato en la nueva fase de la IA

César Cernuda, presidente mundial de NetApp
César Cernuda, presidente mundial de NetApp

La keynote de César Cernuda, presidente mundial de NetApp, fue la que terminó de fijar la tesis central del evento. Su punto de partida fue simple y, al mismo tiempo, incómodo para buena parte de las empresas: la inteligencia artificial ya no puede entenderse como una carga de trabajo experimental. Ha empezado a parecerse a un sistema crítico, con exigencias de resiliencia, rendimiento, seguridad y gobierno comparables a las de un ERP, un CRM o una aplicación core. El matiz importa porque obliga a mover el foco. Si la IA ya no es un laboratorio, entonces el debate tampoco puede quedarse en los modelos, los agentes o el acceso a GPU. Tiene que bajar a la estructura que hace posible operar todo eso.

Cernuda insistió en esa idea con una formulación que resume bien la estrategia que NetApp quiere proyectar: hay que llevar la IA a los datos, no arrastrar los datos hacia una capa artificial construida deprisa. En su discurso y en el encuentro posterior con la prensa apareció varias veces la misma advertencia: el mercado se ha acostumbrado a hablar de copilotos, agentes y productividad sin dedicar el mismo esfuerzo a preparar el dato, clasificarlo, gobernarlo y asegurar su fiabilidad. Eso, a su juicio, explica por qué tantos proyectos avanzan rápido al principio y luego se atascan cuando intentan escalar o trasladarse a entornos reales de negocio. La compañía intenta situarse justo en ese punto de fricción.

La imagen que Cernuda quiso desmontar es también una de las más repetidas en el sector: la de que el valor de una compañía puede medirse por el volumen de datos que acumula. Su matiz fue más exigente. No basta con preguntar cuántos datos tiene una empresa. La cuestión relevante es cómo están preparados, qué acceso existe a ellos, qué nivel de seguridad ofrecen y hasta qué punto son fiables para sostener decisiones y modelos. En esa reformulación aparece una evolución clara del discurso de NetApp. La compañía no reniega de su origen como fabricante ligado al almacenamiento, pero trata de desplazar la conversación hacia la utilidad operativa del dato. En esa lógica, el dato ya no es un activo valioso por mera acumulación, sino por su capacidad para transformarse en conocimiento.

La magnitud del reto ayuda a entender por qué NetApp quiere ocupar ese espacio. Durante la jornada, Cernuda recuperó una estimación de IDC según la cual en 2030 se generará un yottabyte de datos, una escala que tradujo a una imagen deliberadamente visual: equivaldría a que cada habitante del planeta tuviera 438 iPhones de 256 GB sobre la mesa. El dato tenía una función narrativa evidente, pero servía además para introducir dos ideas más serias. La primera, que la creación de información avanza a una velocidad superior a la capacidad de muchas organizaciones para ordenarla. La segunda, que la propia IA acelera ese fenómeno porque no solo consume datos, también genera más. La oportunidad y el problema son el mismo.

En ese punto entró otro de los mensajes más repetidos del evento: la preparación de datos ya no puede plantearse como una fase previa, lenta y separada del negocio. NetApp defendió un esquema en tres etapas, localización y clasificación de datos, gobernanza con reglas de acceso y privacidad, y activación para extraer contexto y utilidad real, pero al mismo tiempo reconoció algo importante durante la rueda de prensa: en la práctica, muchas organizaciones están avanzando por un camino menos ordenado.

Los equipos de negocio lanzan casos de uso, los empleados crean agentes por su cuenta y la infraestructura intenta ponerse al día después. Cernuda no lo negó. Admitió que sería poco realista pedir a las empresas que paren uno o dos años hasta tenerlo todo resuelto. Ese reconocimiento dio más interés al discurso porque introdujo una tensión real entre la teoría de la plataforma y la velocidad caótica con la que hoy se adopta la IA.

La plataforma como respuesta: ONTAP, AFX y el AI Data Engine

La respuesta que NetApp puso sobre la mesa en Madrid se articula alrededor de su NetApp Data Platform, presentada como una base unificada que conecta ficheros, bloques y objetos en cualquier entorno, desde el data center al cloud público, pasando por proveedores de servicios locales, entornos soberanos y nuevas factorías de IA. Jaime Gañán explicó la plataforma como una estructura en capas: un almacenamiento unificado como base, una capa de servicios avanzados de datos y una experiencia de gestión y consumo apoyada en una consola común y en modelos abiertos de automatización. La intención es clara. NetApp quiere vender menos la caja y más la continuidad operativa entre entornos.

En el centro de esa propuesta sigue estando ONTAP, el sistema operativo que la compañía presentó como el elemento que hace interoperable y sostenible la inversión. No es un detalle menor. Buena parte del discurso de Cernuda giró alrededor de la protección de la inversión del cliente en un momento en que cambian las cargas de trabajo, cambian los modelos de consumo y cambian también las exigencias regulatorias y geopolíticas. ONTAP aparece así como una especie de pegamento tecnológico que permite a NetApp defender que no está construyendo una línea de producto coyuntural para subirse a la ola de la IA, sino una continuidad de décadas en torno a la gestión del dato.

Sobre esa base, el anuncio más visible fue NetApp AFX, definido como un almacenamiento desagregado de «tercera generación» orientado a cargas de IA empresariales. La compañía puso el acento en tres elementos: permite escalar de forma independiente rendimiento y capacidad, mantiene los servicios empresariales heredados de ONTAP y alcanza una escala masiva, con más de 100 nodos y hasta un exabyte por clúster. La explicación de Gañán fue, de hecho, una forma de posicionarse frente a dos tradiciones del mercado. Por un lado, los sistemas de almacenamiento distribuidos clásicos, que aportan funciones empresariales pero no siempre llegan a la escala y el rendimiento que exige la IA. Por otro, las arquitecturas pensadas desde cero para IA, capaces de escalar, aunque con más debilidades en protección, multicliente o gestión de datos. NetApp intenta presentar AFX como la síntesis de ambas generaciones.

La otra pieza clave fue AIDE, el AI Data Engine con el que NetApp quiere resolver la parte menos visible, aunque probablemente más decisiva, de cualquier despliegue de IA: descubrir dónde están los datos, comprender su naturaleza, gobernarlos y prepararlos para modelos de lenguaje y aplicaciones generativas. El servicio se apoya en un motor global de metadatos que, según explicó la compañía, ofrece una visión actualizada del patrimonio de datos, detecta cambios, sincroniza entornos y ayuda a evitar copias redundantes u obsoletas. La promesa de fondo no es solo analítica. Es también operativa: si la IA falla por datos dispersos, desactualizados o inseguros, el catálogo y la preparación del dato pasan a ser parte del producto, no una tarea externa.

Aquí es donde el relato de NetApp se vuelve más ambicioso. La compañía no se limita a decir que puede alojar proyectos de IA, sino que aspira a participar en la fase anterior, la que decide si esos proyectos tienen una base empresarial suficiente. Por eso el mensaje sobre el «data challenge» fue más importante de lo que parecía. Maite Ramos aludió a informes que muestran que muchas organizaciones ya tienen proyectos de IA en marcha, pero solo una minoría logra que ese esfuerzo tenga impacto real en negocio. La clave, apuntó, vuelve a ser una estrategia sólida de datos. Ese argumento, repetido desde la apertura hasta el cierre, funcionó como columna vertebral del evento.

Cloud, soberanía del dato y movilidad: la arquitectura híbrida deja de ser un discurso táctico

El tercer gran bloque del evento fue la transformación cloud, aunque el enfoque no fue el habitual. NetApp no planteó la nube como sustitución del on-premise, sino como una capa más dentro de una arquitectura híbrida donde el control del dato sigue siendo el centro de gravedad. Cernuda recordó que la compañía tomó hace años una decisión estratégica relevante: en lugar de enfrentarse a los hyperscalers, optó por integrarse de forma nativa con ellos y convertir esa interoperabilidad en parte de su propuesta de valor. Hoy ese movimiento le permite presentarse como una de las pocas plataformas empresariales integradas de manera nativa con las grandes nubes.

En Madrid, ese argumento se concretó en el refuerzo de acuerdos con Microsoft Azure, Google Cloud y AWS, y en la ampliación de capacidades de movilidad de datos como SnapMirror y FlexCache en más servicios cloud. SnapMirror se presentó como un motor de replicación optimizado para grandes distancias, capaz de mover o copiar datos incluso entre continentes. FlexCache, en cambio, responde a otro problema: cómo acercar datos remotos a donde se necesitan sin tener que trasladarlos de forma permanente. Gañán lo explicó como una especie de red de metadatos y caché inteligente que hace visibles y utilizables datos lejanos con baja latencia, y que refuerza la vieja idea de Data Fabric con un enfoque más pegado a la operación diaria.

La insistencia en cloud tuvo además una lectura claramente europea. Maite Ramos vinculó la conversación sobre nube con la situación geopolítica y con la necesidad de asegurar soberanía del dato. Cernuda fue un paso más allá y señaló que ese será uno de los temas que puede alterar el reparto de cargas entre hyperscalers, nubes distribuidas, cloud local y nuevas gigafactorías de IA en Europa. No se comprometió con un vencedor. Lo que sí dejó claro es que NetApp quiere ser la capa que permita operar en todos esos escenarios sin forzar una ruptura entre ellos. En un mercado en el que la soberanía se está convirtiendo en un criterio técnico, regulatorio y político al mismo tiempo, esa posición le permite estar tanto en la conversación sobre modernización como en la de control estratégico del dato.

Seguridad, ciberresiliencia y el problema de proteger datos que cada vez valen más

La cuarta pata, la ciberresiliencia, no apareció como un añadido defensivo, sino como una extensión lógica del resto del discurso. Si la IA aumenta el valor económico y operativo del dato, también aumenta su valor para un atacante. Gañán defendió que NetApp ha convertido la plataforma de datos en una última línea de defensa, con capacidades de protección proactiva frente a ransomware, copias inmutables y nuevos entornos de recuperación aislados.

Te puede interesar
Huawei impulsa la inteligencia industrial con 115 casos globales

Entre las novedades destacó la detección de exfiltración de datos, pensada para interceptar una fase de los ataques que suele pasar más desapercibida que el cifrado final: la extracción de información previa al secuestro, utilizada después para la doble extorsión. También subrayó la utilidad del entorno aislado para verificar si un backup está limpio antes de restaurarlo.

La compañía volvió a reivindicar además una posición muy concreta en seguridad: la de «almacenamiento más seguro del planeta», apoyándose en certificaciones y en su relación con organismos de alta exigencia como el Departamento de Defensa de Estados Unidos. Más allá del eslogan, lo relevante fue cómo encajó esa idea en el conjunto del relato. NetApp intenta convencer al mercado de que la seguridad no es una capa que se añade sobre el dato una vez que ya está organizado, sino una propiedad que debe formar parte de la propia infraestructura de datos inteligente. Es un movimiento coherente con su intento de ampliar perímetro, desde el hardware hasta el gobierno y la preparación del dato.

En la parte más prospectiva apareció la computación cuántica. La conversación fue prudente, pero dejó una pista clara sobre cómo NetApp quiere presentarse ante cambios tecnológicos que todavía no tienen calendario cerrado. Gañán explicó que ONTAP ya incorpora algoritmos «quantum safe» para proteger datos frente a futuros escenarios en los que determinados esquemas de cifrado queden expuestos. No hubo triunfalismo. Sí una idea que enlaza con todo lo anterior: proteger la inversión del cliente significa también prepararla para amenazas y cambios que hoy son incipientes, pero que pueden reordenar la infraestructura en pocos años.

Alianzas, casos de uso y mercado: por qué NetApp quiere ensanchar su relato

Otra parte importante del evento fue la de las alianzas. NVIDIA ocupó un lugar central, no solo como socio de referencia, sino como pieza de una transición que Cernuda describió con bastante claridad: el gran cambio del mercado ya no está solo en el entrenamiento de modelos, sino en la inferencia y en el despliegue de IA dentro de la empresa. Según se expuso durante la jornada, más del 60% de las GPU se utilizan ya para inferencia frente a entrenamiento, una señal de que la IA empieza a bajar desde los grandes laboratorios y neoclouds hacia la operación corporativa. Ahí es donde NetApp quiere hacerse fuerte con certificaciones para infraestructuras como NVIDIA SuperPOD y con una oferta que, según defendió la compañía, puede cubrir desde proyectos masivos hasta una IA «más de empresa» y menos espectacular, pero seguramente más extendida.

Los casos de uso que se mencionaron durante el evento tenían precisamente esa función: mostrar que la conversación ya no se agota en el almacenamiento. Cernuda citó a la Agencia Espacial Europea y la cartografía de mil millones de estrellas en la Vía Láctea, a DreamWorks y la gestión de datos para películas de animación como «Shrek», y al Lawrence Livermore National Laboratory en trabajos vinculados a la investigación sobre fusión nuclear. Son ejemplos muy distintos entre sí, y esa diversidad era parte del mensaje. NetApp quiere presentarse como una infraestructura transversal, válida tanto para ciencia como para entretenimiento, defensa, finanzas o administración pública.

César Cernuda, presidente mundial de NetApp
César Cernuda, presidente mundial de NetApp

La conversación incorporó además una capa económica que suele quedar más desdibujada en este tipo de eventos. Al abordar la volatilidad de precios en hardware, especialmente en SSD, Cernuda reconoció un mercado anómalo, presionado por la demanda de los grandes centros de IA y los hyperscalers. Su respuesta fue interesante porque no se limitó a negar el problema. Admitió que el mix tecnológico puede cambiar, que algunos clientes volverán a mirar configuraciones distintas al flash puro para ciertos workloads y que el modelo de consumo ganará peso. Ahí entró Keystone, la propuesta de almacenamiento como servicio y suscripción con la que NetApp quiere responder al desplazamiento de CAPEX a OPEX. También habló de enterprise agreements para dar previsibilidad a grandes clientes y de ajustes internos en la fuerza comercial para no empujar siempre la solución de mayor rendimiento si no es la que mejor encaja con el coste o el caso de uso del cliente.

Ese tramo de la conversación ayudó a entender mejor el fondo del evento. NetApp no solo está actualizando su portafolio. Está intentando adaptarse a un mercado en el que la IA empuja la demanda, la nube sigue creciendo, la soberanía del dato añade nuevas restricciones y los costes de infraestructura se vuelven más volátiles. El riesgo para cualquier proveedor en ese contexto es quedar encajonado en una sola categoría. El movimiento de NetApp consiste precisamente en escapar de esa caja: seguir siendo una empresa de almacenamiento, pero presentarse como algo más amplio, una plataforma desde la que ordenar el caos de datos que la propia IA está multiplicando.

Al final, la cuestión que dejó flotando INSIGHT XTRA Madrid no fue tecnológica en sentido estricto. Fue organizativa y estratégica. Las empresas ya saben que quieren IA. Lo que todavía no tienen claro, o no han resuelto del todo, es cómo convertir esa ambición en una arquitectura que no se rompa al crecer, que respete soberanía, que controle costes y que no convierta los datos en una vulnerabilidad nueva.

NetApp quiso presentarse como uno de los proveedores capaces de coser esas piezas. La prueba real llegará después, cuando esa promesa tenga que pasar del escenario a los despliegues, y cuando el mercado decida si la infraestructura de datos inteligente es una categoría con sustancia o solo el siguiente nombre para un problema que sigue sin resolverse del todo.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad