Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
Los agentes de IA marcaron la apertura de Team ’26, el evento anual de Atlassian en Los Ángeles, incluso antes de entrar en los anuncios concretos. Estaban en el mensaje inicial, en el tono de urgencia y en la cuestión de fondo que recorrió la keynote: las empresas ya no debaten si van a convivir con sistemas capaces de generar código, ideas, prototipos o respuestas, sino cómo integrar esas capacidades en organizaciones que no fueron concebidas para trabajar con ellos.
Sobre esa tensión se articuló la keynote inaugural, moderada por Emily Chang, con Ethan Mollick, profesor de Wharton, y Magnus Östberg, chief software officer de Mercedes-Benz. La keynote no se quedó en el terreno de los grandes anuncios y abordó otro igual de decisivo: el de los procesos, los límites y las decisiones que la IA obliga a revisar dentro de una empresa.
Mike Cannon-Brookes, cofundador y consejero delegado de Atlassian, había marcado el tono inicial con una declaración ambiciosa. Habló de la «era del builder», de ayudar a las compañías a pasar de «AI novice» a «AI native» y de un récord de registros de clientes en el evento. El mensaje funcionó como telón de fondo. En las filas del auditorio, con miles de asistentes y otros tantos conectados online, la expectativa era la propia de un gran evento de la industria tecnológica: saber qué viene y, sobre todo, cuánto hay de inminente en ese futuro. Sin embargo, la primera respuesta relevante de la sesión fue casi anticlimática. Mollick, uno de los analistas más escuchados sobre el impacto práctico de la IA, lo resumió en una frase de una franqueza poco habitual en este tipo de escenarios: «nadie sabe nada».
Agentes de IA en empresas que no nacieron para ellos
La frase no era un gesto provocador. Era la base de su argumento. Mollick sostuvo que el concepto de empresa «AI native» sigue siendo más un horizonte retórico que un modelo asentado, en parte porque la tecnología cambia demasiado rápido y en parte porque la experiencia humana sigue pesando más de lo que el mercado sugiere. En estudios con consultores, explicó, los perfiles sénior usaban mejor la IA que los júnior, aunque estos últimos parecieran más fluidos al apoyarse en herramientas como Claude o ChatGPT. La diferencia estaba en la evaluación. Un profesional con recorrido detecta mejor cuándo la respuesta encaja, cuándo simplifica en exceso o cuándo directamente se equivoca.
Esa idea, en una conferencia orientada a software de productividad y colaboración, tenía una carga incómoda. Durante meses, buena parte del discurso comercial ha girado alrededor de una supuesta familiaridad generacional con la IA. Mollick introdujo una corrección importante: manejar interfaces no equivale a entender criterios, riesgos o contexto. En otras palabras, la adopción no resuelve por sí sola el problema de calidad. Y en el ámbito corporativo, donde las decisiones afectan a procesos, clientes y cumplimiento normativo, esa distancia importa mucho más que en una demo.
Östberg aterrizó el argumento en una industria donde el error no tiene la misma tolerancia que en una aplicación de productividad. Mercedes-Benz, recordó, no es una startup buscando encaje de mercado sino una empresa de 140 años que fabrica objetos físicos que circulan por el espacio público. «Un coche tiene que comportarse como un ciudadano en el que se puede confiar», vino a decir. La expresión condensó la dimensión real de la discusión. Allí donde el software toca seguridad, homologación o reputación de marca, la IA deja de ser un asistente simpático y pasa a medirse con estándares industriales, legales y sociales.
El trabajo con agentes de IA no se automatiza solo
La conversación avanzó entonces hacia una de las preguntas que más se repiten en la empresa tecnológica: dónde funciona ya y dónde sigue fallando. Mercedes encontró un terreno relativamente seguro en la interfaz conversacional del vehículo. Östberg destacó que la IA había resuelto un problema muy concreto, la fragilidad del reconocimiento de voz cuando el usuario no habla de forma «perfecta» el idioma esperado por el sistema. Ese tipo de mejora, visible y de bajo riesgo sistémico, encaja bien con la lógica de adopción temprana. También describió otro frente mucho más sensible: enseñar al coche a conducir. Ahí recurrió a una imagen eficaz, la de un «conductor adolescente» que todavía necesita supervisión adulta.
Mollick aportó el marco conceptual para entender esa diferencia. Lo llamó «jagged frontier», una frontera dentada en la que la IA puede ser extraordinaria en unas tareas y torpe en otras. Hace no tanto, recordó, los modelos fallaban en problemas matemáticos básicos; ahora compiten en niveles muy altos en razonamiento formal. Al mismo tiempo, siguen produciendo una escritura larga repetitiva, llena de metáforas vacías y obsesiones reconocibles. La consecuencia para las empresas es menos abstracta de lo que parece: no hay una curva uniforme de mejora que permita asumir que todo el trabajo del conocimiento se transformará a la misma velocidad.
Ese punto conecta con una de las palabras fetiche de la semana en Atlassian, «contexto». Emily Chang la puso sobre la mesa como quien reconoce un término ya colonizado por el marketing y quiere devolverlo a la realidad. Mollick respondió con un matiz interesante: gran parte de la vieja «ingeniería de prompts» ha perdido importancia, y lo decisivo hoy no es escribir frases ingeniosas para impresionar al modelo, sino darle contexto operativo. Qué historial tiene un proyecto, qué limitaciones arrastra una organización, dónde se atasca un equipo, qué decisiones dependen de criterios humanos no explicitados. Ahí aparece un reto mucho más complejo que redactar una instrucción bonita.
Östberg llevó ese razonamiento a su terreno con una visión casi sensorial del contexto. En el coche, explicó, no basta con entender el lenguaje; también importa el entorno, la situación del conductor, la tensión del momento, incluso el tipo de experiencia que se espera de una marca como Mercedes. Un ejecutivo que quiere precisión no pide lo mismo que un usuario que busca una interacción más lúdica. Puede sonar anecdótico, pero detrás hay una visión empresarial sólida: la IA no se integra solo en flujos, también en identidades de producto. Cuando esa capa no encaja, la tecnología «parece pegada», como si fuera un añadido externo.
Qué pasa con los humanos cuando entran los agentes de IA
La parte más incisiva de la keynote llegó cuando la discusión dejó el coche y volvió a la organización. Mollick planteó que muchas estructuras empresariales siguen respondiendo a lógicas muy antiguas. Citó la persistencia del organigrama tradicional y la escasa evolución de los marcos ágiles frente a una novedad radical: la inteligencia ya no llega únicamente en forma humana. Ese cambio, dijo, obliga a experimentar con el diseño organizativo, no solo con el producto. Su propuesta fue menos grandilocuente que práctica: crear equipos pequeños, mezclar perfiles sénior con especialistas de negocio, fijar retos casi imposibles y observar qué pasa.
En ese punto, la keynote dejó de hablar de herramientas y empezó a hablar de gestión. Porque si los agentes de IA aceleran el prototipado, la búsqueda de información y parte de la ejecución, el cuello de botella se mueve.Ya no está únicamente en producir, sino en decidir qué merece producirse, qué costes y beneficios tiene cada decisión y cómo se asume y se distribuye la responsabilidad dentro de la empresa. Östberg lo formuló con un lenguaje más clásico, casi de manual: . Pero añadió una advertencia importante para cualquier gran corporación, el mayor obstáculo no suele ser técnico sino cultural. La memoria muscular de la organización, la forma en que siempre ha hecho las cosas, resiste.
La cuestión laboral apareció inevitablemente. Chang la planteó en los términos más tensos del debate actual, entre quienes anticipan un golpe severo sobre el empleo cualificado y quienes creen que la productividad abrirá más demanda. Mollick evitó el pronóstico tajante. Admitió que aún es pronto para leer efectos definitivos y sugirió que 2026, no 2025, empieza a ser el año en que las compañías pasan de la curiosidad al rediseño serio. Su advertencia fue otra: el riesgo para las empresas no está solo en destruir puestos, también en usar la IA de una forma tan estandarizada que anule cualquier ventaja competitiva. Si todas delegan del mismo modo en los mismos modelos, el resultado se homogeniza.
Mercedes, desde una industria donde software, sistema y producto físico conviven, ofreció una versión más matizada del cambio en el trabajo técnico. Östberg habló menos de sustituir ingenieros que de desplazar tiempo desde la búsqueda y la reconciliación de información hacia puntos de decisión con más valor. En su relato, la primera ganancia no es mágica, es casi administrativa: menos horas dedicadas a localizar conflictos entre requisitos, normas y deseos del cliente. La decisión, insistió, sigue siendo humana. Porque decidir no solo resuelve un problema técnico; también moldea una marca.
A esas alturas, la conversación ya se había desplazado del entusiasmo inicial hacia una discusión más concreta sobre límites, velocidades y responsabilidades. Escuchaba una discusión sobre límites, velocidades y responsabilidades. En los márgenes hubo momentos más ligeros, como la broma sobre ir a la playa mientras los agentes trabajan o la fantasía de un Mercedes que quite carga cognitiva al conductor al entrar en una ciudad desconocida. Pero incluso ahí aparecía la misma pregunta: cuando el sistema hace más, qué queda para la persona. La respuesta no fue cerrada. Quedó suspendida entre dos intuiciones. La primera, que los trabajos van a cambiar antes de que se estabilicen las descripciones formales del puesto. La segunda, que el verdadero campo de batalla no estará en tener acceso a modelos, sino en rediseñar procesos, roles y criterios de decisión sin romper la coherencia de la organización por el camino.
En Los Ángeles, la apertura de Team 26 no dejó un mapa definitivo del futuro del trabajo con IA. Dejó algo probablemente más valioso para la empresa: una medida más precisa del desorden que viene. En la industria del software eso apunta a nuevas cadencias, menos tareas de bajo valor y una presión creciente sobre el diseño organizativo. En sectores físicos, como el automóvil, añade otra capa, la de traducir inteligencia digital en producto confiable. Entre ambos extremos se juega una ventaja menos vistosa que un gran anuncio, pero bastante más duradera: la capacidad de distinguir qué conviene automatizar, qué debe seguir dependiendo del juicio humano y qué tipo de compañía emerge cuando esa frontera deja de ser teórica.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
