Estás leyendo
NetApp lanza la serie EF para acelerar la IA y neocloud

NetApp lanza la serie EF para acelerar la IA y neocloud

  • Los nuevos sistemas EF50 y EF80 de NetApp aumentan un 250% el rendimiento para IA y HPC, optimizando la densidad en centros de datos y el soporte a nubes soberanas.
Neoclouds

La infraestructura que sostiene la inteligencia artificial en España y en el mercado global ha dejado de ser una cuestión de simple capacidad para convertirse en una batalla por la latencia y la densidad. En este escenario, NetApp ha presentado la nueva generación de sus sistemas de almacenamiento de la serie EF, con los modelos EF50 y EF80 como protagonistas de una propuesta que busca resolver el cuello de botella que enfrentan actualmente los neoclouds y las arquitecturas de IA soberana.

El despliegue de estos equipos no es una actualización incremental convencional. Los datos que maneja la compañía apuntan a un rendimiento de lectura de 110 GBps y 55 GBps de escritura, cifras que representan un salto del 250% respecto a las iteraciones anteriores. Esta aceleración responde a una necesidad estructural: el entrenamiento de modelos de lenguaje extensos y las simulaciones de computación de alto rendimiento (HPC) requieren que las GPU no queden inactivas esperando datos. Cuando el almacenamiento no sigue el ritmo de la capacidad de cómputo, la inversión en hardware de procesamiento se infrautiliza de forma crítica.

El factor de la densidad y la eficiencia en el centro de datos

Uno de los puntos de fricción habituales en los centros de datos modernos es el equilibrio entre la potencia bruta y el coste operativo. Jaime Balañá, director técnico de NetApp en Iberia, señala que las empresas se enfrentan a volúmenes de datos masivos y aplicaciones que exigen una infraestructura capaz de ofrecer velocidad y escalabilidad sin disparar la complejidad. Según explica Balañá, los nuevos sistemas están diseñados específicamente para cargas de trabajo de alto rendimiento y baja latencia, permitiendo escalar de forma eficiente mientras se reduce tanto el espacio físico en el rack como los gastos operativos derivados del consumo energético.

La eficiencia energética se ha convertido en una métrica tan relevante como los IOPS. Los nuevos modelos de la serie EF alcanzan los 63,7 GBps por kW. En un contexto donde la fabricación industrial impulsada por IA y las normativas de sostenibilidad presionan a los directivos de tecnología, este dato traslada la discusión desde el rendimiento puro hacia la viabilidad económica a largo plazo. La capacidad de albergar 1,5 PB de almacenamiento en apenas 2U de rack permite a las organizaciones optimizar el espacio, un recurso cada vez más costoso en los proveedores de colocation y nubes privadas.

Integración con sistemas de ficheros paralelos

La utilidad de la serie EF no reside únicamente en su hardware, sino en su capacidad para actuar como un espacio de trabajo temporal de alta velocidad. Al combinarse con sistemas de ficheros paralelos como Lustre o BeeGFS, los sistemas EF50 y EF80 eliminan las fricciones en simulaciones complejas. Esta arquitectura es especialmente valorada en sectores como la producción multimedia de gran escala y la investigación científica, donde los flujos de datos no son lineales y presentan picos de demanda extrema.

Simon Robinson, analista principal de Omdia, destaca que la investigación de su firma confirma que las cargas de trabajo de IA exigen un nivel de rendimiento bruto sin precedentes en la informática empresarial tradicional. Para Robinson, la apuesta de NetApp por dar soporte a industrias emergentes como los neoclouds, proveedores de nube especializados en IA, sitúa a la compañía en un segmento donde el almacenamiento de bloque asequible pero de altísima velocidad es el componente diferenciador.

Sin embargo, el rendimiento no es el único vector en juego. La seguridad y la integridad de los datos en entornos de IA soberana introducen capas de complejidad regulatoria y técnica. Los nuevos sistemas integran medidas para proteger información confidencial, un requisito indispensable para las empresas que gestionan bibliotecas de datos sensibles o propiedad intelectual crítica en procesos de inferencia de inteligencia artificial generativa.

Voces del sector y despliegue operativo

La adopción de esta tecnología ya cuenta con el respaldo de socios estratégicos y clientes de gran volumen. Sumeet Arora, director de producto de Teradata, reconoce que los sistemas de la serie EF proporcionan el soporte necesario para sus cargas de trabajo más exigentes, permitiendo explorar vías para reducir la complejidad de la infraestructura. Esta simplificación operativa es, quizás, uno de los beneficios menos tangibles pero más valorados por los departamentos de IT que deben gestionar más de un millón de instalaciones previas de la marca.

Te puede interesar
Cloud Soberano

Desde la perspectiva del integrador, Clayton Vipond, arquitecto sénior de soluciones de CDW, apunta que muchas organizaciones están descubriendo que maximizar el rendimiento bruto es la única vía real para extraer valor de sus activos de datos. La serie EF renovada intenta cerrar esa brecha entre la acumulación de datos y su transformación en información útil mediante una implementación optimizada y el soporte técnico especializado.

Aunque la propuesta de NetApp parece sólida en el papel, el mercado se mueve hacia una fragmentación donde la especialización del hardware es clave. La capacidad de estos sistemas para mantener su relevancia dependerá de su agilidad para adaptarse a los cambios en los algoritmos de IA, que cada vez demandan accesos a datos más heterogéneos y distribuidos.

El reto de la escalabilidad invisible

La serie EF busca posicionarse como una solución que equilibra el presupuesto con la necesidad de tomar decisiones rápidas basadas en datos. No obstante, queda en el aire cómo evolucionará la gestión de estos sistemas en entornos híbridos donde el almacenamiento local debe convivir con nubes públicas masivas. La promesa de una gestión simplificada con almacenamiento de bloque es atractiva, pero la realidad operativa suele presentar desafíos de interoperabilidad que solo se resuelven con una capa de software de gestión robusta.

El lanzamiento de los modelos EF50 y EF80 marca un hito en la estrategia de infraestructura de datos inteligente de la firma, pero también abre una incógnita sobre el límite físico de la densidad en los centros de datos actuales. A medida que las GPU se vuelven más potentes y hambrientas de datos, la presión sobre el subsistema de almacenamiento no hará sino aumentar. La pregunta para los directivos españoles no es ya si necesitan este nivel de velocidad, sino con qué rapidez podrán integrarlo antes de que sus modelos de IA queden obsoletos por falta de alimentación de datos eficiente.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad