Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La inversión masiva en inteligencia artificial generativa ha chocado con un muro inesperado en el tejido corporativo español: el factor humano. A pesar de que el gasto global en esta tecnología se sitúa ya en horquillas de entre 30.000 y 40.000 millones de dólares, según estimaciones del MIT Project NANDA, los resultados no terminan de aparecer en las cuentas de resultados. La paradoja es evidente.
Mientras la herramienta se normaliza en el ámbito privado, el entorno laboral mantiene una resistencia silenciosa que no responde a la falta de capacidad técnica, sino a una desconexión cultural profunda. ¿Es posible que las empresas estén comprando tecnología del siglo XXI para aplicarla sobre estructuras organizativas del siglo XX?
La consultora tecnológica Entelgy ha analizado este fenómeno, detectando que el 95% de las iniciativas de IA no logran un retorno medible. La cuestión aquí no es la potencia del algoritmo, sino la porosidad de la organización para absorberlo. En muchos casos, los profesionales se ven atrapados en una contradicción operativa: se les exige innovar mientras sus agendas están saturadas por la gestión del día a día, sin dejar espacios para la experimentación necesaria que requiere cualquier cambio de paradigma.
La formación frente a la presión del calendario
El principal obstáculo que encuentran los directivos españoles no es el rechazo frontal a la tecnología, sino la carestía de tiempo. La adopción de la IA no es un proceso de instalación de software, sino un aprendizaje basado en el ensayo y el error. Sin embargo, en la cultura empresarial predominante, el error sigue siendo un activo penalizado. Esta rigidez impide que el empleado dedique horas a entender cómo una herramienta de lenguaje puede optimizar su flujo de trabajo si percibe que ese tiempo se traduce en tareas pendientes que el sistema no perdona.
A esta falta de espacio temporal se suma la inseguridad jurídica y de seguridad. Los profesionales operan en un entorno de incertidumbre sobre qué datos pueden o no compartir con la máquina. Ante el temor a cometer una infracción de ciberseguridad o vulnerar la protección de datos sensibles, la respuesta natural del trabajador es el inmovilismo. Es un mecanismo de defensa lógico en organizaciones donde las directrices de uso no son claras o son demasiado restrictivas.
El fenómeno de los «secret cyborgs» y la ética de la eficiencia
Uno de los puntos más críticos en la actual fase de adopción es el estigma de la «trampa». Existe una corriente de trabajadores, denominados «secret cyborgs», que utilizan la inteligencia artificial de forma clandestina. Estos perfiles logran resolver en minutos tareas que antes requerían horas de dedicación, pero ocultan su metodología por miedo a que su eficiencia sea percibida como una falta de esfuerzo o, peor aún, como una excusa para que la dirección incremente su carga laboral de forma desproporcionada.
Esta cultura del ocultamiento es, en última instancia, un fallo de la gobernanza empresarial. Si un empleado siente que debe esconder su productividad, la organización pierde la oportunidad de escalar ese conocimiento al resto del equipo. Se genera una brecha invisible entre los que dominan la herramienta en la sombra y una estructura oficial que sigue operando bajo procesos obsoletos. Para Entelgy, este es un síntoma claro de que la IA está amplificando las capacidades individuales, pero la empresa no sabe cómo integrar ese valor de forma colectiva y transparente.
El papel del mando intermedio en la IA
La transformación suele diseñarse en los consejos de administración y ejecutarse en la base, pero suele morir en los mandos intermedios. Este estrato jerárquico es fundamental para que la inteligencia artificial deje de ser un proyecto piloto y pase a ser una realidad operativa. Sin embargo, estos perfiles suelen carecer de la autonomía necesaria para liderar el cambio. La consultora subraya que, sin un empoderamiento real de estos responsables, que les permita rediseñar los procesos y flexibilizar las jerarquías, la tecnología quedará relegada a un uso cosmético.
Las empresas intentan integrar la IA manteniendo los mismos modelos de selección de personal y las mismas competencias de hace una década. Esta inercia provoca que el talento joven, nativo en estas herramientas, termine realizando tareas repetitivas y automatizables. El coste de oportunidad es incalculable: se está utilizando a profesionales cualificados para funciones que una máquina ya resuelve con solvencia, simplemente porque la estructura no ha sabido evolucionar hacia roles más estratégicos.
El concepto de agencia humana como solución
Frente a la visión de la tecnología como un sustituto, emerge el concepto de agencia humana. Alfredo Zurdo, Head of Digital Change en Entelgy, sostiene en el espacio de análisis Agencia Humana que el éxito no reside en la acumulación de licencias de software, sino en la capacidad del profesional para ejercer su criterio. «La tecnología no va a decidir por nosotros lo que queremos ser: esa decisión sigue siendo nuestra», afirma Zurdo, subrayando que la verdadera transformación ocurre cuando el trabajador sabe cuándo delegar en la máquina y cuándo su juicio experto es el único factor insustituible.
Este enfoque humanista propone que la IA actúe como un amplificador de capacidades. No se trata de fusionar de forma acrítica al humano con la herramienta, sino de formar profesionales con capacidad de discernimiento. Lograr este equilibrio requiere una inversión directa en las personas y una estrategia de gestión del cambio que priorice la ética y la responsabilidad sobre la mera velocidad de procesamiento.
Desafíos operativos y retorno de inversión
El cierre de esta brecha tecnológica y cultural determinará la competitividad de las compañías en los próximos años. La tensión entre la hiperproductividad que promete la IA y el miedo a la deshumanización del trabajo es real. Las organizaciones que no logren normalizar el uso de estas herramientas, eliminando la percepción negativa asociada a la rapidez, verán cómo sus mejores talentos se frustran o emigran hacia entornos más flexibles.
La adopción segura y ética no es solo un marco regulatorio, sino una necesidad operativa para que el empleado se sienta respaldado. Al final, la inteligencia artificial en la empresa no es un problema de ingeniería, sino de confianza y diseño de procesos. Sin un cambio en la cultura del aprendizaje y una revisión de las jerarquías, la IA seguirá siendo una inversión millonaria que se utiliza en secreto, mientras el negocio real sigue funcionando con las inercias del pasado.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
