La transición de las empresas españolas hacia modelos de inteligencia artificial capaces de ejecutar tareas sin supervisión humana constante ha dejado de ser una proyección de laboratorio para convertirse en un desafío operativo inmediato. Hasta hace apenas unos meses, el despliegue de la IA se centraba en la generación de contenido o la consulta de datos; sin embargo, la irrupción de la denominada IA agéntica, agentes capaces de tomar decisiones y actuar sobre sistemas, ha desplazado el foco hacia la seguridad de la ejecución. En este escenario, Palo Alto Networks ha lanzado Prisma AIRS 3.0 , una actualización de su arquitectura de seguridad concebida específicamente para gestionar el ciclo de vida de estos entes autónomos.
La pregunta que subyace en los departamentos de tecnología de las grandes corporaciones no es ya si la IA es capaz de redactar un informe, sino qué ocurre cuando ese mismo sistema tiene permisos para modificar una base de datos, contratar un servicio o alterar una configuración de red de forma independiente. La visibilidad tradicional, centrada en el tráfico de red o el acceso de usuarios humanos, resulta insuficiente para monitorizar identidades sintéticas que operan en milisegundos.
La visibilidad frente al «Shadow AI» agéntico
Uno de los problemas más críticos que enfrentan los directivos de seguridad actualmente es el crecimiento de lo que se denomina «shadow AI». Al igual que ocurrió con el software como servicio (SaaS) hace una década, departamentos enteros están implementando micro-agentes de IA para automatizar flujos de trabajo específicos sin que estos pasen por los protocolos de control de la organización. Según detalla la firma Palo Alto Networks, su nueva iteración de Prisma AIRS busca erradicar estos puntos ciegos mediante un inventario instantáneo de agentes, independientemente de si se ejecutan en nubes públicas, entornos locales o plataformas de terceros.
Esta capacidad de descubrimiento es el primer paso de un proceso que intenta comprender no solo qué dice la IA, sino qué hace. El riesgo sistémico aumenta exponencialmente cuando un agente diseñado para optimizar el inventario decide, por una lógica de optimización mal alineada, cancelar pedidos críticos o abrir brechas en la privacidad de los datos. La plataforma propone un enfoque preventivo mediante la herramienta Agent Artifact Security, que somete la arquitectura del agente a un análisis de vulnerabilidades antes incluso de su puesta en marcha.
El reto de la identidad sintética y el tiempo de ejecución
A diferencia de un empleado tradicional, un agente de IA no tiene un horario ni una ubicación física predecible. Esto genera una tensión constante entre la agilidad operativa y la gobernanza. Anand Oswal, vicepresidente ejecutivo de IA y Seguridad de Redes en Palo Alto Networks, señala que el paso de una «IA que habla» a una «IA que actúa» redefine por completo la productividad, pero introduce comportamientos impredecibles en tiempo de ejecución. Esta imprevisibilidad es la que intentan mitigar funciones como el AI Red Teaming, que simula ataques diseñados para engañar a los agentes y forzar comportamientos anómalos, permitiendo a los equipos de seguridad anticiparse a posibles fallos de lógica.
La implementación de este tipo de tecnologías en España suele toparse con la complejidad de los entornos híbridos. Muchas organizaciones operan con una mezcla de sistemas heredados y soluciones de vanguardia en la nube. La propuesta de un «AI Agent Gateway» actúa como un plano de control centralizado, una suerte de aduana digital por la que debe pasar toda acción agéntica. Aunque esta funcionalidad se encuentra todavía en fase preliminar, marca una tendencia clara en el mercado: la necesidad de una gobernanza automatizada que sea tan rápida como la propia IA que pretende vigilar.
Colaboración estratégica y el factor del endpoint
La complejidad de asegurar estos ecosistemas ha llevado a alianzas entre proveedores de tecnología y consultoras estratégicas. Desde Accenture Cybersecurity, su líder global Harpreet Sidhu subraya que escalar la IA agéntica requiere superar obstáculos de visibilidad fundamentales. Para las empresas, saber a qué datos accede un agente y cómo se comporta tras su implementación es la diferencia entre una innovación rentable y un riesgo reputacional inasumible.
El despliegue de estas defensas se extiende hasta el punto final o «endpoint». La reciente integración tecnológica derivada de la adquisición de Koi por parte de Palo Alto Networks permitirá que las aplicaciones de IA, como los agentes de codificación utilizados por los desarrolladores, cuenten con una capa de protección específica. Esto es particularmente relevante en sectores donde la propiedad intelectual reside en el código, ya que un agente comprometido podría filtrar fragmentos críticos de software de manera autónoma.
Un horizonte de incertidumbres normativas y técnicas
Pese a los avances en plataformas de protección, el futuro de la IA agéntica sigue albergando incógnitas sustanciales. No se trata solo de la robustez técnica de las herramientas de ciberseguridad, sino de cómo evolucionará el marco regulatorio europeo frente a la autonomía de las máquinas. Si un agente comete un error con impacto financiero o legal, la trazabilidad de su «razonamiento» será el campo de batalla de las auditorías futuras.
Prisma AIRS 3.0 se posiciona como un intento de estandarizar la respuesta ante estas amenazas, pero la carrera entre los atacantes, que también emplearán agentes autónomos para buscar vulnerabilidades, y los defensores está lejos de concluir. La verdadera prueba para las empresas españolas no será la adopción de la tecnología, sino su capacidad para mantener el control sobre unos sistemas que, por definición, han sido diseñados para operar sin ellos.
Queda por ver si la centralización de la seguridad en una única plataforma será suficiente para contener la fragmentación inherente a los ecosistemas de IA, o si la velocidad de la innovación agéntica acabará desbordando incluso los perímetros más avanzados de protección en tiempo real.
