

Senior VP, Global Head of AI de SAP
El panorama de la IA evoluciona a una velocidad vertiginosa. Y si hasta ahora, estos sistemas funcionaban de forma asistencial y reactiva, ofreciendo recomendaciones o realizando tareas predefinidas cuando se les solicitaba, ha llegado el momento de la IA agéntica: sistemas que funcionan de forma autónoma, se adaptan en tiempo real y actúan como colaboradores digitales.
Y a medida que la IA se hace más independiente, también surgen nuevos riesgos que nos hacen preguntarnos cómo seguir avanzando de forma responsable.
De meras herramientas a compañeros de equipo
Imagine que va a comprar un coche. Espera que cumpla todas las normas de seguridad, independientemente de dónde se fabriquen los componentes o cómo se realice el montaje del coche. Ese proceso, que se realiza entre bastidores, no cambia las expectativas de seguridad del cliente. Lo mismo ocurre con la IA agéntica.
Los sistemas de IA agéntica son más que meras herramientas: son agentes inteligentes que planifican, aprenden de la experiencia, se autocorrigen y colaboran entre sí. Son capaces de orquestar procesos complejos, tomar decisiones e incluso interactuar con otros agentes o humanos para alcanzar un objetivo. Sin embargo, este salto adelante conlleva una nueva capa de complejidad y riesgo.
Los sistemas de IA agéntica aportan potentes capacidades, tales como la planificación, la reflexión y la colaboración, lo que les permite abordar tareas complejas de forma autónoma. Pueden trazar estrategias, aprender de los errores, utilizar herramientas externas y coordinarse con humanos y otros agentes.
Sin embargo, cada punto fuerte conlleva sus riesgos. Por ejemplo, una planificación defectuosa puede causar ineficiencias, la reflexión puede reforzar comportamientos poco éticos, el uso de herramientas puede provocar inestabilidad cuando los sistemas interactúan de forma impredecible, y una colaboración poco organizada puede dar lugar a falta de comunicación y a errores complejos. Equilibrar estas capacidades con las medidas de seguridad adecuadas es esencial para un despliegue seguro.
Gestionar la autonomía: equilibrio entre libertad y control
Uno de los mayores retos de la IA agéntica es la gestión de su autonomía. Sin el control adecuado, estos sistemas pueden desviarse de su curso, malinterpretar el contexto o introducir riesgos sutiles indetectables de forma inmediata. Por todo ello, las organizaciones deben encontrar un cuidadoso equilibrio entre libertad y control.
Y esa supervisión ha de calibrarse en función del riesgo. En aquellos ámbitos en los que el riesgo es alto, léase sanidad o recursos humanos, es clave una sólida supervisión humana, mientras que las tareas rutinarias de bajo riesgo pueden tolerar una mayor autonomía. Además, la supervisión continua es esencial; los sistemas de IA agéntica, como cualquier tecnología compleja, requieren comprobaciones periódicas para garantizar la calidad, el cumplimiento normativo y la fiabilidad.
Un elemento clave de esta supervisión es mantener un enfoque humano integrado en los puntos de decisión críticos, garantizando que las acciones automatizadas sigan alineadas con los valores humanos y el propósito de la organización.
Este principio ha formado parte esencial del enfoque ético de la IA de SAP desde el principio, reflejando nuestra creencia de que la IA debe aumentar, no sustituir, la toma de decisiones humana. Para reforzar esto, SAP ha introducido revisiones éticas obligatorias para todos los casos de uso de IA agéntica, garantizando que cada despliegue sea examinado en busca de implicaciones éticas y permanezca alineado con nuestros principios de IA responsable.
Construir la transparencia y la responsabilidad
La transparencia no es sólo una palabra de moda; es un requisito fundamental para construir la confianza en la IA agéntica. Por eso, es crucial clasificar los sistemas de IA desde la fase de diseño, en función de la complejidad y el riesgo de las tareas que realizan, orientando las decisiones sobre las protecciones necesarias y garantizando que los mecanismos de intervención humana estén integrados desde el principio.
Una vez en ejecución, la transparencia se mantiene a través de la explicabilidad y la trazabilidad. Los desarrolladores y usuarios finales deben ser capaces de entender qué hace el sistema y por qué. Y lo que es más importante, la responsabilidad debe recaer siempre en los seres humanos o las entidades jurídicas, nunca en la propia IA.
Replantear la gobernanza y la regulación
A pesar de la aparición de la IA agéntica, no se han elaborado nuevas normativas específicas para ella. Las leyes y marcos regulatorios existentes, como el GDPR, siguen siendo aplicables y proporcionan una base sólida para la gobernanza. Sin embargo, lo que ha cambiado es el nivel de rigor técnico necesario para mantener la conformidad y la solidez ética. Las organizaciones deben adoptar ahora procesos más sólidos. Deben analizar los casos de uso con mayor precisión, aplicar controles basados en el riesgo que se correspondan con el impacto potencial del sistema de IA y garantizar el cumplimiento de las normas éticas y legales mediante prácticas de diseño mejoradas y pruebas continuas.
La IA agéntica no puede ser una excusa para rebajar los estándares: incluso en los sistemas autónomos, la IA debe cumplir las normas éticas más estrictas. Esto significa integrar principios como la equidad, la transparencia y la acción humana directamente desde el diseño.
En última instancia, todos los usuarios deben estar equipados con las herramientas y los conocimientos necesarios para supervisar y, en caso necesario, intervenir en el comportamiento del sistema.
Generar confianza en un mundo de cajas negras
La confianza en la IA no surge por defecto, ha de ser construida y reforzada continuamente. Una de las formas más eficaces de hacerlo es proporcionar a las partes interesadas la cantidad adecuada de información. Demasiados detalles pueden ser abrumadores y contraproducentes, mientras que muy pocos fomentan la confianza ciega o el miedo a lo desconocido. La clave está en comunicar con claridad las capacidades, riesgos, limitaciones y uso adecuado del sistema. Capacitar a los usuarios para evaluar críticamente el comportamiento de la IA -y saber cuándo intervenir- es fundamental para crear un entorno de IA seguro y fiable.
A medida que los sistemas agénticos gestionen más tareas, las funciones humanas evolucionarán de forma natural. Para seguir el ritmo de este cambio, las organizaciones deben replantearse cómo definen y miden el éxito. Esto empieza por invertir en la gestión del cambio y en programas de mejora de las competencias que preparen a los empleados para trabajar eficazmente junto a la IA. También requiere redefinir las métricas de productividad, yendo más allá de la finalización de tareas para centrarse en lo bien que colaboran los humanos y los agentes de IA. El éxito debe medirse por la eficacia con la que los equipos aprovechan la IA para alcanzar nuevos niveles de conocimiento e innovación.
Construir una IA que genere confianza
La IA agéntica no es una fase más; es una transformación. Pero como cualquier tecnología transformadora, el éxito depende de cómo se construya, gobierne y utilice.
En el mejor de los casos, la IA agéntica amplifica las capacidades humanas, acelera la innovación y ayuda a afrontar retos que antes se consideraban demasiado complejos. Pero también exige un nuevo nivel de trabajo, supervisión y reflexión ética.
El futuro no consiste sólo en crear agentes que sean más inteligentes, sino también responsables.

Senior VP, Global Head of AI de SAP