Dell ampliará en julio de 2026 la compatibilidad de su gama PowerEdge con las GPUs AMD Instinct MI350P en formato PCIe. La medida afecta, según la compañía, a dos modelos concretos, los PowerEdge XE7745 y R7725, y se presenta como una vía para desplegar IA generativa e IA agéntica dentro del centro de datos existente, sin obligar a replantear el diseño de la infraestructura.
El anuncio llega acompañado de una ampliación de la Dell AI Platform con AMD, que Dell describe como una arquitectura modular orientada a escalar cargas de trabajo de IA desde pruebas piloto hasta producción. La información publicada por la propia compañía detalla el movimiento y su encaje con la plataforma (https://www.dell.com/en-us/blog/dell-and-amd-are-expanding-what-s-possible-for-on-premises-ai/), con un foco claro en el despliegue on-premises como alternativa a escenarios donde la nube pública no encaja por coste, control o requisitos de seguridad.
En el mercado empresarial, la discusión ya no gira solo en torno a “hacer IA”, sino a cómo operarla de forma sostenida: presupuestos de infraestructura, disponibilidad de energía y refrigeración, gobierno del dato, y la capacidad de pasar de una demo a un servicio interno con SLAs. En ese marco, Dell y AMD sitúan su propuesta en un punto concreto: aprovechar servidores estándar refrigerados por aire y aceleradores PCIe para evitar, o al menos retrasar, decisiones más disruptivas sobre el centro de datos.
La compatibilidad anunciada se apoya en dos piezas. La primera es el hardware: los PowerEdge XE7745 y R7725, en configuración estándar y refrigeración por aire, podrán incorporar las AMD Instinct MI350P PCIe. Dell subraya que esto elimina la necesidad de rediseñar el CPD, un matiz que en la práctica suele traducirse en no tener que introducir nuevas topologías de refrigeración o cambios estructurales en racks y distribución térmica. No es un detalle menor, porque muchas organizaciones se encuentran con límites físicos antes que con límites de demanda.
La segunda pieza es el rendimiento y la memoria del acelerador. Dell atribuye a las MI350 PCIe hasta 4.600 teraflops pico (MXFP4) y 144 GB de memoria HBM3e, que presenta como la mayor capacidad disponible actualmente en un acelerador PCIe. En cargas de IA, la memoria de alto ancho de banda suele ser un factor tan determinante como el cómputo, especialmente cuando se trabaja con modelos grandes o con contextos extensos, y cuando se busca reducir la fragmentación de modelos entre dispositivos.
El mensaje comercial, sin embargo, no se limita a “más potencia”. Dell encuadra la MI350P PCIe como una opción de alto rendimiento y rentable para escalar despliegues de IA generativa e IA agéntica. La rentabilidad, en este tipo de proyectos, suele depender de variables que no siempre aparecen en la ficha técnica, como la utilización real de GPU, la eficiencia del stack de inferencia, la estabilidad del suministro eléctrico o la capacidad de integrar el servicio en procesos de negocio. Aun así, el énfasis en PCIe apunta a un objetivo: facilitar adopción sin exigir una reingeniería completa del entorno.
En cuanto a los casos de uso, Dell indica que los servidores con MI350 PCIe estarán optimizados para inferencia de modelos pequeños, medianos y grandes, además de pipelines RAG y flujos de trabajo de agentic AI. RAG (retrieval-augmented generation) se ha convertido en un patrón habitual para empresas que quieren combinar modelos generativos con conocimiento interno, ya que permite recuperar información de repositorios corporativos y usarla como contexto para la respuesta del modelo. En paralelo, la llamada IA agéntica, que orquesta herramientas y pasos de ejecución para completar tareas, introduce nuevas exigencias: más llamadas a servicios, más latencia acumulada y, a menudo, más necesidad de observabilidad y control.
El software es el otro eje del anuncio. Dell y AMD ponen el acento en un “stack abierto”, con integración del software empresarial de IA de AMD con frameworks como PyTorch, TensorFlow y vLLM, y con la promesa de no añadir costes de licencias y requerir cambios mínimos de código. En el día a día de un equipo de plataforma, esa compatibilidad suele ser la diferencia entre un piloto que funciona en un entorno controlado y una operación repetible. También es un terreno donde aparecen fricciones: versiones de drivers, compatibilidad de kernels, rendimiento real de librerías y madurez de herramientas de profiling.
La ampliación de la Dell AI Platform con AMD se presenta como una arquitectura modular “diseñada para crecer” con las necesidades de IA empresarial. En términos prácticos, la modularidad suele buscar dos cosas: permitir que una organización empiece con una configuración ajustada a su demanda actual y, más adelante, incremente densidad de GPU o capacidad de cómputo sin rehacer el diseño. Dell insiste en que ese crecimiento se puede hacer sin rediseñar la infraestructura, una formulación que apunta a evitar el salto temprano a configuraciones más complejas, como despliegues con requisitos térmicos o eléctricos fuera de lo habitual.
Según la descripción facilitada, la plataforma utiliza AMD Enterprise AI Suite, AMD ROCm y AMD Inference Server para cubrir el ciclo de vida completo: entrenamiento, fine-tuning, inferencia y flujos de trabajo agénticos, dentro de un entorno on-premises validado y seguro. ROCm, como capa de software para cómputo acelerado en GPUs AMD, es un componente central en la estrategia de AMD para IA. Su relevancia en empresa no se limita a la compatibilidad, también afecta a la portabilidad de cargas y a la capacidad de mantener un entorno estable a lo largo del tiempo, algo que suele tensionarse cuando los equipos actualizan frameworks con rapidez.
El enfoque on-premises que plantea Dell se apoya en una idea recurrente en el mercado: mantener datos y ejecución dentro del perímetro corporativo para ganar control y reducir exposición. Aunque la nube pública ofrece elasticidad y servicios gestionados, muchas empresas se encuentran con límites de coste en inferencia sostenida, con requisitos regulatorios o contractuales sobre residencia del dato, o con necesidades de integración con sistemas internos que no se trasladan fácilmente. En contraste con ese modelo, el despliegue en CPD propio exige disciplina operativa: planificación de capacidad, gestión de parches, monitorización y un modelo de soporte que responda cuando el servicio se convierte en crítico.
Dell también introduce una referencia a escenarios de mayor exigencia. Para cargas orientadas al desarrollo de modelos fundacionales y a la inferencia a gran escala, la compañía menciona soporte para servidores PowerEdge XE9785 con GPUs AMD MI355X y procesadores EPYC. La mención sugiere una segmentación: MI350P PCIe para ampliar IA en infraestructuras estándar y, cuando el volumen o el tipo de carga lo requiera, sistemas diseñados específicamente para densidad y rendimiento. En la práctica, esa escalera de producto suele alinearse con la evolución típica de las organizaciones: primero inferencia y RAG en ámbitos acotados, después consolidación de plataforma y, en algunos casos, entrenamiento o fine-tuning más intensivo.
El calendario, en cualquier caso, marca el ritmo. La compatibilidad con MI350P PCIe se sitúa a partir de julio de 2026, lo que deja un margen amplio para que las empresas planifiquen renovaciones de hardware, presupuestos y pruebas de integración. También abre una ventana para observar cómo evoluciona el ecosistema de software, especialmente en herramientas de inferencia y en la estandarización de flujos de trabajo agénticos, donde todavía hay bastante variabilidad entre implementaciones.
Para los responsables de tecnología en España, el anuncio se lee como una propuesta de reducción de fricción: incorporar aceleración de IA en servidores PowerEdge refrigerados por aire, con un stack que Dell y AMD describen como abierto y orientado a producción. La incógnita, como suele ocurrir en este tipo de movimientos, no está solo en la compatibilidad declarada, sino en el rendimiento sostenido, la facilidad de operación y la capacidad de mantener el entorno estable cuando los equipos de datos y software empujan hacia nuevas versiones y nuevos patrones de uso.
