Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
El debate sobre inteligencia artificial (IA) ha entrado en una nueva fase en Europa. Ya no se trata únicamente de comprender sus capacidades técnicas, sino de determinar si es posible integrar esta tecnología en los modelos productivos actuales sin generar nuevas desigualdades o ampliar brechas existentes.
En este contexto, la mesa redonda organizada por AMETIC bajo el título IA con propósito: rentabilidad, competitividad y bienestar social , celebrada durante el 39º Encuentro de la Economía Digital y las Telecomunicaciones en Santander, permitió abordar esta cuestión desde distintas perspectivas clave: regulatoria, empresarial, tecnológica y estratégica.
Lejos de las narrativas simplificadoras sobre el potencial transformador de la IA, la discusión permitió visibilizar una serie de tensiones estructurales que afectan directamente al tejido productivo español, especialmente a las pymes, y que condicionan el modo en que la tecnología puede contribuir, o no, al bienestar social.

Gobernanza tecnológica: el papel de la Administración en un ecosistema fragmentado
Aleida Alcaide, directora general de la Secretaría de Estado de Digitalización e Inteligencia Artificial, planteó un enfoque que reconoce tanto el potencial económico de la IA como sus implicaciones sociales y geopolíticas. Desde su perspectiva, el papel del Estado no se limita a regular o supervisar, sino que debe ser proactivo en la generación de capacidades estratégicas. En este sentido, defendió el desarrollo de modelos propios de IA en España como un instrumento de soberanía tecnológica, empezando por la familia de modelos ALIA.
Este modelo lingüístico, entrenado en castellano y distribuido en código abierto, no pretende competir con las grandes plataformas tecnológicas, sino garantizar que los sistemas basados en IA respondan a los valores, necesidades idiomáticas y normativas europeas. La apuesta por un modelo de código abierto busca también reforzar la auditabilidad, una cuestión crítica cuando se trata de integrar la IA en servicios públicos o sectores regulados.
Además del impulso a modelos nacionales, Alcaide expuso una batería de programas orientados a democratizar el acceso a la infraestructura de IA. Mencionó, entre otros, la Fábrica de Inteligencia Artificial, basada en el supercomputador MareNostrum 5 del Barcelona Supercomputing Center. Esta iniciativa abre el acceso gratuito a capacidad de cómputo a pymes y startups, lo que permite reducir la dependencia de plataformas externas en las fases iniciales de desarrollo.
El objetivo es claro: evitar que la lógica de mercado excluya a los actores más pequeños de la cadena de valor de la IA. La apuesta se complementa con programas de financiación (como el fondo Deep Tech dotado con 4.000 millones de euros), desarrollo de talento (con especial atención al entorno universitario) y habilitación de datos en lenguas cooficiales, como el proyecto EUS Corpora en colaboración con el País Vasco.

Inteligencia artificial en la empresa: de la eficiencia operativa a la reconfiguración del trabajo
Desde el sector privado, las intervenciones de Miguel Ángel Ariza (VASS) y Luis Álvarez (EPAM Neoris) evidenciaron dos ejes clave del debate empresarial: cómo asegurar que la IA contribuya a la eficiencia sin destruir valor social, y cómo traducir los principios éticos en decisiones operativas dentro de las organizaciones.
Ariza explicó que muchas compañías comenzaron a experimentar con IA sin una estrategia definida, lo que llevó a iniciativas desconectadas entre departamentos. Frente a este enfoque, propuso priorizar una lógica de propósito claro, midiendo el impacto de cada proyecto a través de indicadores específicos: reducción de tiempos, automatización de flujos, mejora de la atención al cliente y personalización de servicios. Ejemplificó con proyectos en el sector financiero y telecomunicaciones donde la IA se ha integrado para optimizar el onboarding digital y mejorar la gestión de clientes en tiempo real.
Luis Álvarez introdujo una reflexión crítica sobre el verdadero grado de madurez tecnológica. Afirmó que, pese a la creciente presencia de la IA en discursos corporativos, su aplicación práctica sigue siendo limitada y, en muchos casos, mal comprendida. En su opinión, todavía no existe un conocimiento consolidado sobre cómo convertirla en una herramienta transversal y fiable dentro de las organizaciones.
Desde esa perspectiva, defendió la noción de inteligencia aumentada, en la que la IA no sustituye sino que complementa el trabajo humano. Sin embargo, reconoció que los efectos sobre el empleo serán significativos. Advirtió sobre la necesidad de prever cómo reubicar a quienes perderán sus tareas actuales, y propuso acompañar la transformación tecnológica con planes de reskilling y reconversión interna. En el caso de EPAM Neoris, la compañía ha comenzado por aplicar IA a sus propios procesos internos, como paso previo a su despliegue en soluciones para clientes, con el objetivo de entender sus implicaciones organizativas antes de escalar su uso.
Ambos ponentes coincidieron en que el desarrollo de la IA en el entorno empresarial debe estar guiado por métricas de impacto, planificación progresiva y una atención explícita al cambio cultural que implica su adopción.
Soberanía digital y regulación: el dilema de la claridad normativa
Jeremy Rollison, responsable de política europea en Microsoft, abordó uno de los temas más complejos del momento: la soberanía digital en un contexto de fragmentación normativa y tensiones geopolíticas. Desde su posición, Microsoft se presenta como un proveedor de infraestructura “estable” en un entorno inestable. No obstante, Rollison reconoció que las preocupaciones sobre dependencia tecnológica respecto a proveedores estadounidenses son legítimas, especialmente cuando se producen cambios en las administraciones nacionales que pueden afectar la continuidad del servicio o el cumplimiento normativo.
Entre las medidas expuestas por Rollison destacaron los compromisos europeos anunciados por Microsoft: ampliación del perímetro de sus centros de datos en Europa, refuerzo de la seguridad en colaboración con gobiernos, y desarrollo de servicios de cloud soberano que permiten a los clientes almacenar y procesar datos exclusivamente en territorio europeo, con claves de cifrado gestionadas por terceros.
Rollison defendió también la necesidad de que las normativas europeas sean claras y comprensibles. Insistió en que las pymes no deberían necesitar abogados para interpretar las reglas de uso de la IA. En su opinión, la ambigüedad normativa es más perjudicial que la propia regulación, y frena la adopción al introducir incertidumbre jurídica en un momento clave para la competitividad de las empresas europeas.
Indicadores ESG, impacto social y brecha digital
Luis Álvarez aportó una perspectiva centrada en la medición del impacto y el uso de la IA para reforzar la trazabilidad en los informes ESG. A su juicio, la tecnología puede ser un instrumento para detectar prácticas de greenwashing o incoherencias en los compromisos de sostenibilidad. Por ejemplo, una empresa puede alegar que todas sus botellas son reciclables, cuando en realidad solo un porcentaje reducido del plástico lo es. O un fondo puede autodefinirse como “verde” cuando apenas el 30 % de sus activos están efectivamente ligados a energías renovables.
Además de estas aplicaciones, Álvarez subrayó el riesgo de ampliar desigualdades si no se acompaña la automatización con medidas de inclusión. Propuso el concepto de “brecha gital”, una fusión de “digital” y “social”, para describir el fenómeno por el cual la transformación digital deja atrás a colectivos vulnerables. En este sentido, instó a que los procesos de automatización contemplen desde su diseño las necesidades de usuarios con menor alfabetización tecnológica, personas mayores o colectivos con discapacidad.
Álvarez también aludió a la presión regulatoria en sectores como la banca, donde las entidades deben justificar ante el BCE que sus decisiones de inversión cumplen criterios de sostenibilidad. En estos entornos, la IA puede facilitar auditorías más precisas, siempre que se integre en sistemas de gobernanza robustos.
Una tecnología general, pero de efectos desiguales
Una de las ideas que más se repitió durante el encuentro fue que la IA, al ser una tecnología de propósito general, tiene la capacidad de afectar simultáneamente múltiples sectores, procesos y niveles de decisión. Pero su efecto no será neutro. Su impacto dependerá de cómo se estructuren las condiciones de acceso, de quién posea la infraestructura, de qué idioma hable el modelo, y de qué valores queden incorporados, o excluidos, de sus algoritmos.
El reto no está únicamente en aprovechar el potencial de la IA, sino en diseñar instituciones, normativas y modelos de colaboración que aseguren una transición justa. Como señaló Rollison, “la política necesita ofrecer claridad”. Pero como remarcó también Alcaide, el propósito no puede ser decorativo: debe integrarse en la arquitectura misma del despliegue tecnológico.
La pregunta final, citando a Henry Kissinger, resuena con fuerza: “¿Para qué estamos haciendo todo esto?”. No es una pregunta retórica. Es la que debería guiar cada inversión, cada regulación, cada piloto de IA que se ponga en marcha en España y en Europa.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
