La inteligencia artificial generativa se está colando en el trabajo cotidiano con una velocidad poco habitual para una tecnología de propósito general. En muchas empresas ya no se discute si se va a usar, sino dónde, con qué límites y quién se beneficia antes. En ese movimiento, empieza a dibujarse una asimetría incómoda: las mujeres están utilizando estas herramientas en una proporción sensiblemente menor que los hombres, incluso cuando el acceso es comparable.
Un análisis que agrupa 18 estudios globales sitúa la diferencia en torno al 25% a favor de los hombres en adopción de IA generativa. El dato, por sí solo, no explica demasiado, pero sí marca un punto de partida: si la IA se convierte en una capa transversal de productividad, una brecha sostenida en el uso tiende a convertirse en una brecha en resultados, visibilidad y oportunidades. Y eso ocurre sin necesidad de que exista una prohibición explícita o una barrera técnica evidente.
Lo llamativo es que, según los motivos recogidos en esos estudios, la distancia no se atribuye a falta de capacidad. La reticencia aparece más vinculada a la percepción social del uso de la IA en el entorno laboral. Muchas mujeres declaran preocupación por cómo se interpretará recurrir a un texto, un resumen o un borrador generado por un modelo: si se verá como una práctica poco profesional, si se asociará a “tomar atajos”, o si se pondrá en duda el mérito del trabajo. En un mercado donde la reputación interna y la evaluación informal pesan tanto como los indicadores formales, esa ansiedad no es un detalle.
Radhika Kapur, vicepresidenta de Área del Grupo de Partners y Tecnología en EMEA en Confluent, lo describe en términos de presión acumulada: “la presión de estar siempre completamente preparadas, de revisar el trabajo una y otra vez y de evitar errores que puedan reforzar prejuicios”. En ese marco, adoptar pronto herramientas aún poco consolidadas puede sentirse como un riesgo adicional, o como un margen de maniobra que no todo el mundo percibe que tenga. La cuestión no es solo si la IA funciona, sino quién puede permitirse fallar en público mientras aprende.
Kapur introduce, además, un matiz que rompe el estereotipo de que la adopción depende de la edad o del perfil técnico. Cuenta cómo su madre, abogada especializada en divorcios, utiliza la IA para preparar borradores y realizar investigación preliminar, y cómo ha probado distintos modelos hasta identificar cuál encaja mejor con su práctica. La anécdota no pretende idealizar la herramienta, pero sí señala algo relevante: cuando el beneficio es claro y el coste reputacional es bajo (o está controlado), la adopción puede ser rápida incluso fuera de los entornos tecnológicos.
El problema aparece cuando esa adopción desigual se mantiene en el tiempo. La IA generativa, usada con criterio, tiende a recortar tareas de bajo valor, acelerar primeras versiones y reducir el tiempo de búsqueda y síntesis. Si un grupo la utiliza menos, el efecto no se limita a “hacer menos en menos tiempo”. Se traduce en menos margen para tareas estratégicas, menos disponibilidad para preparar reuniones complejas, menos capacidad para iterar propuestas o explorar alternativas. En organizaciones donde la visibilidad se construye por acumulación de entregables y presencia en proyectos, esa diferencia puede convertirse en un mecanismo silencioso de selección.
Hay otra derivada menos visible, pero estructural. Los modelos de lenguaje de gran tamaño aprenden, en parte, de cómo se usan: qué se pregunta, qué se corrige, qué se acepta, qué se rechaza. Si la mayoría de interacciones provienen de hombres, es razonable esperar que, con el tiempo, se refuercen patrones de lenguaje, supuestos y prioridades más alineados con perspectivas masculinas. No es una hipótesis abstracta. Ya se han observado sesgos en sistemas algorítmicos aplicados a contratación o crédito, donde los datos históricos y las prácticas previas se filtran en el resultado. Pensar que la IA generativa quedará al margen de esa dinámica sería, como mínimo, optimista.
Aun así, el debate suele atascarse en una idea equivocada: que la IA generativa es sobre todo una herramienta para perfiles altamente técnicos. En la práctica, su impacto más inmediato se está viendo en la carga administrativa y cognitiva que atraviesa casi cualquier rol: redactar correos, resumir reuniones, ordenar documentación, preparar borradores, comparar versiones, sintetizar información dispersa. Precisamente en ese terreno, distintos estudios han señalado que las mujeres asumen con frecuencia una parte desproporcionada del “trabajo doméstico organizativo” dentro de las empresas, tareas de coordinación, facilitación, comunicación y mantenimiento del conocimiento institucional que sostienen el funcionamiento diario, pero que no siempre se traducen en promoción.
Ahí la IA puede tener un efecto ambivalente. Por un lado, puede aliviar esa carga: resumir reuniones, analizar documentos complejos, redactar comunicaciones, detectar señales del clima del equipo a partir de texto y sintetizar información que, de otro modo, exigiría horas. Por otro, si la adopción es desigual, el grupo que ya soporta más trabajo invisible puede quedarse sin la palanca que lo reduce. En vez de liberar tiempo para decisiones, resolución de problemas o liderazgo, la tecnología podría reforzar la distribución existente del esfuerzo.
La cultura organizativa aparece como un factor más determinante que la formación. El análisis citado apunta que la brecha de género se reduce de forma drástica en organizaciones donde los líderes fomentan explícitamente la experimentación y normalizan el uso imperfecto de estas herramientas. Es una observación incómoda para quienes confían en que bastará con impartir cursos. La adopción no depende solo de saber usar un prompt o entender las limitaciones del modelo. Depende de sentirse seguro al probar, equivocarse y corregir sin que eso se convierta en un juicio sobre la competencia profesional.
En ese sentido, las medidas prácticas que se mencionan no son sofisticadas, pero sí exigentes en términos de coherencia interna: incorporar el uso de IA en los procesos de onboarding, crear grupos de compañeros para experimentar juntos, y, sobre todo, que los líderes muestren su propio uso, incluso cuando no es perfecto. La señal que se envía importa. Si la dirección utiliza la IA como herramienta de trabajo y habla abiertamente de lo que funciona y lo que no, reduce el coste social de aprender. Si, en cambio, el uso se tolera en privado pero se penaliza en público, la adopción tenderá a concentrarse en quienes ya se sienten menos expuestos.
También entra en juego la gobernanza. Definir límites y directrices no es solo una cuestión de cumplimiento, sino de confianza. Cuando una organización aclara qué datos no deben introducirse, qué tareas requieren revisión humana, cómo se citan fuentes internas o cómo se valida un resultado, reduce la incertidumbre que frena el uso. Y esa incertidumbre, según los motivos recogidos, pesa especialmente cuando existe miedo a ser juzgado por “hacer trampas” o por cometer un error visible.
El componente simbólico tampoco es menor. Women in Data realizó un experimento simple: pedir a ChatGPT, en inglés, que generara imágenes de un “data scientist”. Las 100 imágenes mostraron rasgos estereotípicamente masculinos. Con “data engineer” ocurrió lo mismo, y con “data analyst” 93 de 100. El ejercicio no prueba por sí solo cómo se comportan todos los modelos ni en todos los contextos, pero sí ilustra una tensión conocida: los sistemas tienden a reproducir patrones dominantes presentes en los datos y en las asociaciones culturales. Cuando esas representaciones se normalizan, influyen en quién se imagina a sí mismo en un rol y en cómo se evalúa a quien ya está.
Kapur sostiene que “las normas sobre el uso de la IA aún se están definiendo” y que existe una oportunidad real de corregir el rumbo hacia la inclusión. La frase tiene un trasfondo práctico: las expectativas de productividad y las competencias en IA todavía no están completamente fijadas en muchas organizaciones. Esa ventana, sin embargo, no es indefinida. Cuando se consoliden métricas, rutinas y estándares informales, ponerse al día será más costoso, y la brecha, más difícil de cerrar porque ya no será solo de uso, sino de trayectoria.
Para los equipos directivos, el reto no se limita a “impulsar la adopción”. Implica observar quién está adoptando, en qué tareas, con qué apoyo y con qué riesgos percibidos. Implica también revisar cómo se evalúa el trabajo cuando interviene la IA: si se penaliza el uso visible pero se premia el resultado, se incentiva la opacidad; si se premia la experimentación pero no se protege el error razonable, se incentiva la prudencia extrema. Y en un entorno donde el síndrome del impostor y los sesgos de evaluación ya existen, esas reglas no escritas pueden inclinar la balanza.
La IA será uno de los rasgos definitorios de la próxima década en el ámbito profesional. La incógnita, por ahora, no es si aumentará la productividad, sino cómo se distribuirán sus beneficios y qué grupos quedarán asociados a su dominio cotidiano. Si la brecha de adopción se mantiene, el coste no será solo individual. Se notará en la composición del liderazgo, en la calidad de los sistemas que se entrenan con interacciones sesgadas y en la capacidad de las empresas para construir equipos diversos en un momento en el que la tecnología está reordenando, casi sin avisar, el valor del trabajo.
