Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La inteligencia artificial en telecomunicaciones avanza en 2025 con un patrón reconocible: priorizar casos de uso que recortan costes —especialmente en atención al cliente—, acelerar pilotos en red y explorar ingresos en servicios edge ligados a inferencia y GPU como servicio. El panorama se aclara al analizar el informe Telco AI: State of the Market, Q2 2025 de la GSMA Intelligence, basado en despliegues públicos de 250 operadores y que sirve de base cuantitativa para seguir la evolución del sector. La muestra abarca más de 100 países y debe interpretarse como un proxy del pulso real de mercado.
Según el documento, casi la mitad de las implantaciones registradas se concentran en atención al cliente —chatbots, agentes y automatización de front-office—, mientras que cerca de una quinta parte se ubican en redes (mantenimiento predictivo, ahorro energético, optimización de rendimiento). En conjunto, entre el 75% y el 80% de las iniciativas persiguen ante todo eficiencias internas, con solo un 10–20% orientadas de forma principal a generar ingresos. Además, el 60% de los casos contabilizados ya están en producción y el 40% restante sigue en prueba o planificación.
Inteligencia artificial en telecomunicaciones: mapa 2025
El informe estructura los despliegues por áreas de negocio —red, atención al cliente, ventas y marketing, funciones corporativas, data center y otros—, y ofrece una fotografía de dónde y para qué se está utilizando la IA. En el cómputo global, atención al cliente representa el 47% de las implantaciones, seguida de redes (18%), ventas y marketing (16%), funciones corporativas (8%), centros de datos (2%) y otros (9%).
Por regiones hay matices relevantes: en Europa, el 43% de los casos se ubican en atención al cliente y el 16% en red; en Latinoamérica, la cuota de atención al cliente asciende al 67%; y en África subsahariana alcanza el 62%. En madurez, Europa presenta un 72% de despliegues operativos, por encima de Asia-Pacífico (58%) y de MENA (57%).
Atención al cliente: primer vector de ahorro
El sesgo hacia front-office responde a un criterio financiero: son low-hanging fruit que permiten automatizar interacciones, reducir tiempos de gestión y compatibilizar objetivos de retención y upselling. Este patrón explica que la atención al cliente concentre en torno al 50% de los despliegues analizados y que los proyectos de red —más complejos y con dependencias tecnológicas— avancen con un ritmo distinto.
En paralelo, los operadores mantienen canales de prueba activos: los autores anticipan ciclos dentro del ciclo, con pilotos que no desaparecerán tras la puesta en marcha de las primeras oleadas, sino que seguirán iterándose para validar el ROI caso a caso. De ahí que la relación 60:40 entre vivo y prueba/planificación se entienda como un equilibrio dinámico y no como un escalón transitorio típico de generaciones de red.
Redes y operaciones: detección temprana y eficiencia medible
En red, las prioridades combinan mantenimiento preventivo, ahorro energético vía estados de reposo y mejora de rendimiento. Aunque la cuota de red en el tracker es del 18%, los autores advierten que la cifra subestima la realidad, al contar solo despliegues públicamente anunciados y existir solapamientos con otras áreas (por ejemplo, OSS/BSS). La lectura operativa es clara: la mayoría de operadores aplican IA en red, pero con distinta visibilidad externa.
Las métricas de objetivo de negocio refuerzan este enfoque: en Europa, el 92% de las implementaciones persigue ahorro de costes; en Asia-Pacífico, el 87%; y en Latinoamérica, el 95%. La orientación a ingresos se limita a entre el 5% y el 19% según región, con Norteamérica en el 17% y MENA en el 19%.
Modelos de ingresos: GPUaaS y agentes, aún incipientes
El vector de ingresos avanza en dos frentes: servicios habilitados por IA para empresas —como GPU-as-a-Service (GPUaaS)— y agentes generativos como base de nuevos productos. El informe prevé más actividad comercial en 2025–2026, a medida que pruebas se conviertan en ofertas formales. La monetización no es homogénea: verticales industriales con necesidades de baja latencia y procesamiento local muestran tracción, pero el modelo de facturación (capex/opex, consumo, SLAs) sigue en proceso de definición.
Edge computing: la inferencia se desplaza al borde
La inferencia está encaminándose hacia el borde de red, mientras el entrenamiento continúa, en gran medida, en nube pública. El edge ofrece ventajas operativas y económicas: reducción de costes (backhaul, almacenamiento, tráfico de salida de datos -egress-), menor latencia, resiliencia, soberanía de datos y eficiencia energética. El informe cifra ahorros potenciales del 30–40% al ejecutar inferencia en el borde, especialmente en despliegues on-premises para sectores como gemelos digitales, robótica o IoT industrial.
Para ayudar a decidir dónde colocar la inferencia, el análisis compara escenarios (ingeniería de red, cámaras de seguridad en retail, inventario hospitalario) y valora cinco atributos —coste, latencia, resiliencia, soberanía de datos y eficiencia energética— frente a su alternativa en nube. El resultado no es único: según el caso, el edge puntúa mejor en latencia, soberanía y egress; la nube destaca en elasticidad. En consecuencia, la hibridación será la pauta, con la capa de coordinación como elemento crítico.
Ecosistema de proveedores: GPU y modelos, un tablero concurrido
El ecosistema que rodea a Telco AI muestra un tablero plural: los operadores citan fabricantes de chips, hiperescalares y modelos fundacionales. En GPU, el ranking de presencia en casos públicos sitúa a Nvidia por delante de Intel y AMD; entre hiperescaladores, Google, Microsoft y AWS comparten un espacio de peso; y en modelos, el informe registra Perplexity, OpenAI y DeepSeek como opciones referenciadas en despliegues. Esta fotografía no debe leerse como cuotas de mercado, sino como huella en anuncios y colaboraciones.
La especialización por caso de uso condiciona las combinaciones: gestionadores de red, plataformas de datos, LLMs y orquestación se ensamblan en propuestas que, en el terreno empresarial, piden SLA explícitos y observabilidad extremo a extremo. El reto para los operadores es modular esa cadena para empaquetar servicios con garantías.
Regulación y soberanía: señales en Europa y más allá
El informe recoge iniciativas regulatorias y de política pública que están marcando el ritmo. Entre ellas, la consulta de la Comisión Europea sobre su estrategia Apply AI y varios proyectos de IA soberana vinculados a infraestructura nacional. Para el sector telco europeo, esta dinámica exige alinear despliegues con requisitos de cumplimiento, y a la vez participar en la definición de reglas para evitar asumir el papel de rule takers de forma pasiva.
En paralelo, el énfasis en soberanía de datos y procesamiento local refuerza el interés por edge y por 5G SA cuando coinciden ciclos de actualización, con impactos directos en capacidad de red y en la prioridad de upskilling técnico dentro de las plantillas.
Capacidades internas: red, talento y ciclos de prueba
A la pregunta de qué necesitan priorizar, los operadores señalan dos vectores: capacidad de red (62%) y experiencia y formación (63%). Las cifras apuntan a un reconocimiento explícito: la IA incrementará tráfico y nuevos tipos de flujo, y exigirá actualización permanente de competencias. Este enfoque explica que Asia-Pacífico lidere en volumen medio de despliegues por operador (3,94), seguida de Europa (2,88), mientras MENA y África subsahariana entran en una fase de aceleración.
La foto del pipeline por áreas muestra que atención al cliente es la más madura (alrededor del 75% ya en vivo), seguida de data center y ventas/marketing (en torno al 60%), con red y funciones corporativas repartiendo su peso entre vivo y prueba. El mensaje para gestión es claro: vigilar la conversión de pilotos en producción y medir el ROI con granularidad por caso, no por tecnología.
Implicaciones para operadores en España y Europa
Para operadores con presencia en España y la UE, la hoja de ruta operativa se puede resumir en cinco decisiones:
- Priorizar casos con retorno verificable: atención al cliente y mantenimiento predictivo de red siguen ofreciendo ahorros medibles con capex contenido.
- Diseñar ofertas edge para empresa: GPUaaS, visión por computador en retail y gemelos digitales industriales exigen catálogos modulares y modelos de servicio claros.
- Ajustar la arquitectura: combinar nube pública para entrenamiento con inferencias locales cuando el coste de egress y la latencia lo justifiquen; ahorros del 30–40% son factibles en escenarios concretos.
- Competencias y gobierno: dedicar upskilling continuo y marcos de control para calidad de datos, sesgos y seguridad; el cumplimiento normativo será un habilitador, no un apéndice.
- Lectura de ecosistema: la dependencia de GPU y la diversidad de modelos aconsejan evitar bloqueo tecnológico mediante abstracción y contratos con SLA verificables.
Próximas métricas y hojas de ruta 2025–2026
El informe anticipa más actividad en 2025–2026 en productos de ingresos, conforme maduren agentes y servicios edge. A corto plazo, conviene seguir cinco indicadores:
- Ratio vivo/piloto por área de negocio.
- Ahorros de OPEX atribuidos a IA en red y front-office.
- Tasa de conversión de pilotos enterprise a contratos.
- Coste por inferencia en edge frente a nube.
- Cumplimiento con marcos de IA aplicada en la UE.
La ecuación operativa —coste, latencia, resiliencia, soberanía y energía— no tiene solución única. Pero la evidencia acumulada en el segundo trimestre de 2025 ofrece un patrón nítido: el impulso inicial está en eficiencias, la inferencia en el borde gana peso y los ingresos se moverán conforme los operadores transformen pilotos en ofertas replicables y escalables con márgenes identificables.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
