La sostenibilidad de la inteligencia artificial se ha convertido en una preocupación creciente para las empresas tecnológicas, no solo por su impacto ambiental, sino también por los costes operativos y las exigencias regulatorias que empiezan a consolidarse en Europa. Hewlett Packard Enterprise (HPE) ha publicado un análisis que identifica siete errores frecuentes que comprometen la eficiencia energética de los sistemas de IA, y que, según la compañía, pueden evitarse con un enfoque más estructurado y transversal.
El documento, presentado por HPE no se limita a señalar ineficiencias técnicas. Propone una revisión más profunda del modo en que se diseñan, entrenan y despliegan los modelos de IA, desde la elección del hardware hasta la cultura organizativa. La clave, apuntan, está en adoptar una visión de ecosistema —lo que denominan ecosystem thinking— que conecte infraestructura, software, datos y personas.
El coste oculto de los grandes modelos
Uno de los errores más extendidos, según HPE, es el sobredimensionamiento de modelos. La popularidad de los grandes modelos de lenguaje (LLM) ha llevado a aplicarlos en tareas rutinarias para las que no fueron diseñados. Clasificar correos o extraer datos estructurados, por ejemplo, puede realizarse con modelos más pequeños o incluso con técnicas tradicionales de machine learning. El problema no es solo de eficiencia: el consumo energético de un LLM puede ser hasta 100 veces superior al de un modelo ajustado a propósito.
La recomendación, en este caso, no es renunciar a la potencia de los LLM, sino evaluar su idoneidad. “Fit-for-purpose” es el principio que HPE propone como alternativa a la lógica de “bigger is better”.
Infraestructura eficiente, pero no suficiente
Aunque los centros de datos han mejorado notablemente en eficiencia —con tecnologías como la refrigeración líquida o la conversión energética avanzada—, el crecimiento exponencial de la IA plantea nuevos límites. Según estimaciones citadas por HPE, solo la inferencia de IA podría representar el 20 % del consumo energético global en 2030.
Pero no todas las infraestructuras tienen el mismo impacto. Ejecutar un modelo en una red eléctrica con alta intensidad de carbono puede multiplicar por diez su huella respecto a una alimentada por renovables. De ahí que la procedencia de la energía y las técnicas de optimización cobren un peso estratégico.
Datos que pesan más de lo que aportan
Otro de los puntos críticos es la acumulación indiscriminada de datos. Muchas organizaciones almacenan grandes volúmenes sin políticas claras de retención o depuración. Aunque esos datos no se usen, siguen generando costes energéticos en almacenamiento, copias de seguridad y mantenimiento.
HPE propone aplicar el marco 4C (Collect, Curate, Clean, Confirm), una metodología que prioriza la calidad y relevancia de los datos frente al volumen. El objetivo no es almacenar más, sino almacenar mejor.
Software que también consume
La eficiencia del software suele pasar desapercibida en los debates sobre sostenibilidad. Sin embargo, el código poco optimizado o los modelos innecesariamente complejos pueden disparar el consumo energético. En este terreno, la comunidad técnica ya está adoptando prácticas como la cuantización (quantization), que reduce la precisión de los cálculos cuando no es crítica, o el uso de modelos ligeros para consultas simples (guardrails).
También ganan terreno los Small Language Models (SLMs) y los LLMs específicos de dominio, que ofrecen un rendimiento más ajustado con un consumo mucho menor. La eficiencia, en este caso, no implica renunciar a la calidad, sino adaptarla al contexto.
Hardware sobredimensionado, otro lastre
Asignar cargas de trabajo a infraestructuras inadecuadas es un error frecuente. Por precaución o por inercia, muchas empresas despliegan servidores de alto consumo para tareas que podrían ejecutarse en hardware más modesto. Esto genera tasas de utilización bajas y un desperdicio energético considerable.
La recomendación de HPE es clara: alinear cada tipo de carga con el hardware más eficiente disponible. No todas las tareas requieren GPU de última generación.
Personas fuera de la ecuación
Más allá de la tecnología, la sostenibilidad de la IA también depende de las personas. Implementar sistemas sin explicar su propósito ni formar a los equipos genera resistencia, baja adopción y, en última instancia, infrautilización. Esto no solo reduce el retorno de la inversión, sino que mantiene activos sistemas que consumen recursos sin aportar valor.
La solución pasa por la transparencia, la formación continua y la integración de la IA como herramienta de apoyo, no como sustituto. El upskilling, en este sentido, no es un complemento, sino una condición para la sostenibilidad operativa.
Sin métricas, no hay mejora
El último error que señala HPE es la falta de medición. Muchas organizaciones despliegan soluciones de IA sin monitorizar su consumo energético ni su huella de carbono. Sin datos, resulta imposible identificar ineficiencias o justificar mejoras.
Incorporar métricas desde el diseño —como emisiones por interacción o consumo por inferencia— permite optimizar en tiempo real y alinear las inversiones con los objetivos ESG. No se trata solo de cumplir con normativas, sino de anticiparse a un entorno regulatorio cada vez más exigente.
Ecosystem thinking: más allá de la eficiencia puntual
Los siete errores descritos no son independientes. Según HPE, todos responden a una misma lógica fragmentada, que aborda la sostenibilidad de la IA como un problema técnico aislado. El enfoque que proponen —ecosystem thinking— parte de la idea de que la IA es un sistema interdependiente, donde infraestructura, datos, software, hardware y personas deben coordinarse.
Este marco no solo busca reducir la huella ambiental, sino también mejorar la resiliencia y la competitividad de las organizaciones. En un escenario donde los costes energéticos aumentan y las exigencias regulatorias se endurecen, la sostenibilidad deja de ser una opción reputacional para convertirse en un factor estratégico.
Adoptar este enfoque implica medir desde el inicio, planificar con visión de futuro y fomentar la colaboración entre departamentos que tradicionalmente operaban por separado. La sostenibilidad, en este contexto, no es una capa añadida, sino una arquitectura de base.
