Vicepresidente y Developer Relations en GitHub
La inteligencia artificial agéntica está marcando una nueva etapa, y donde estamos viendo que muchos de los cambios ocurren primero es en la ingeniería de software. A diferencia de las primeras herramientas de IA generativa que brindaban asistencia en uno o dos pasos a la vez, estos agentes están diseñados para llevar a cabo tareas completas: planifican, ejecutan, encadenan herramientas, construyen y prueban cambios.
Esto acelera la manera en la que podemos construir software, generando a su vez altas expectativas. Sin embargo, lo que hemos aprendido al aplicar herramientas de IA al desarrollo de software es que el cambio estructuralmente más significativo no es tecnológico, es organizacional y, ante todo, humano.
Sistemas que pueden actuar, no decidir
La IA agéntica cambia la naturaleza del trabajo de los desarrolladores, pero cambia aún más sus condiciones de trabajo. Acelera la forma en la que los desarrolladores construyen y corrigen las vulnerabilidades de seguridad, pero no reemplaza el juicio humano, la comprensión contextual ni la responsabilidad ligada a las decisiones técnicas. Un agente puede actuar, pero no tiene criterio ni creatividad. No decide el significado, no define las prioridades de negocio, ni tampoco comprende las compensaciones comerciales. Este límite donde entra en juego el juicio humano siempre permanecerá como algo esencial.
Procesos claros para equipos humanos y agentes
La IA agéntica modifica también el ritmo del trabajo, no su propósito: permite que los equipos se muevan más rápido, pero a cambio, exige una mayor disciplina. Sin un proceso claro, la aceleración puede causar cuellos de botella en el flujo, desde la idea hasta la implementación. A medida que la productividad individual se acelera, se vuelve aún más importante contar con buenas prácticas que permitan la colaboración entre equipos de humanos y agentes. Si se omiten los procesos, puede generarse deuda técnica, aumentar la complejidad y perderse claridad en la toma de decisiones. La IA agéntica no opera fuera de las limitaciones comerciales: se mueve a través de ellas, las acelera, pero también puede ponerlas bajo presión si no se gestionan adecuadamente.
Estos sistemas generan más valor cuando se integran en procesos estructurados, diseñados para mejorar el rendimiento y adaptados a un mundo donde crear código ya no es lo más costoso. La parte más difícil sigue siendo la misma: la chispa creativa inicial de una idea para mejorar un negocio o crear un producto que la gente necesite. En grandes empresas, llevar esas ideas a los clientes de forma confiable y repetible, fusionando el trabajo de cientos de desarrolladores y miles de agentes de manera coherente, requiere juicio y habilidad humana para que todo tenga sentido.
La gobernanza se convierte en un asunto estratégico
El desafío principal está en la dirección y la supervisión. A más capacidad de un sistema para actuar de forma autónoma, más estratégica se vuelve su gobernanza. ¿Quién establece las reglas? ¿Quién valida las acciones? ¿Quién puede detener a un agente, corregir su trayectoria o retomar el control? La gobernanza humana es lo que permite la confianza y hace posible desplegar estas tecnologías a gran escalaAI and the Future of Work — OECD (November 2023).
La importancia de la elección
El panorama de la industria cambia rápidamente, y la capacidad de elegir nunca ha sido tan crucial para las empresas. Las capacidades de la IA evolucionan en cuestión de semanas, y lo que hoy es el modelo o herramienta de IA de vanguardia puede quedar obsoleto antes de que se complete un ciclo estándar de adquisiciones empresariales. Por ello, las empresas deben buscar soluciones que brinden la máxima flexibilidad, eviten la dependencia de un único proveedor de modelos (“vendor lock-in”) y sean compatibles con el resto de las herramientas que utiliza el negocio.
Es una cuestión de liderazgo, no solo de elecciones técnicas
Este desafío va mucho más allá del ámbito técnico. Es, ante todo, un asunto relacionado con la gestión. Estudios recientes sobre gobernanza de la IA muestran que los problemas de las organizaciones rara vez se deben al rendimiento de las herramientas. Ahora, surgen de la ausencia de roles claros, responsabilidades definidas y mecanismos explícitos para la supervisión humanaGoverning AI in the Enterprise — MIT Sloan Management Review (February 2024).
Sin ese marco, la IA agéntica puede crear una ilusión de eficiencia: más actividad, más rápido, pero sin una visión global, con menos impacto. La responsabilidad final no puede delegarse en un agente. Incluso cuando la IA actúa de forma autónoma, las decisiones sobre el camino que se toma corresponden a los individuos y a las organizaciones. Si bien la última generación de herramientas de IA agéntica permite delegar gran parte de la pesadez del trabajo, no delegan la responsabilidad.
Vicepresidente y Developer Relations en GitHub
