El uso de inteligencia artificial generativa en campañas de phishing corporativo está siendo instrumentalizado por actores maliciosos a través de un número limitado de herramientas. Según el último informe publicado por Unit 42, la unidad de inteligencia de amenazas de Palo Alto Networks, el 70% de los ataques de phishing que utilizan capacidades de IA generativa se apoyan en dos tipos de aplicaciones: generadores de sitios web (40,4%) y asistentes de escritura (29,6%).
Los datos del informe subrayan una evolución constante en el uso de estas tecnologías entre abril de 2024 y abril de 2025, no solo por parte de empresas, sino también de los cibercriminales.
El tráfico hacia plataformas de IA generativa ha aumentado sostenidamente en ese periodo, con picos registrados en septiembre de 2024 y marzo de 2025, en paralelo a un incremento del número de sitios web que incorporan estos servicios.
Ampliación del riesgo con nuevas herramientas accesibles
La facilidad de acceso a generadores de contenido, plataformas para crear páginas web y chatbots está modificando la dinámica de las amenazas. Unit 42 observa que los ciberdelincuentes están reutilizando herramientas legítimas para clonar páginas corporativas, diseñar mensajes personalizados y desplegar campañas de phishing a gran escala con una rapidez sin precedentes.
El informe también señala que otras herramientas implicadas en estos ataques incluyen chatbots (10,5%) y generadores multimedia (8,4%), que permiten crear vídeos, imágenes o elementos interactivos con apariencia verosímil, lo que incrementa la eficacia de las campañas maliciosas.
El uso corporativo de GenAI crece más allá del sector tecnológico
A nivel empresarial, el uso de IA generativa sigue dominado por el sector tecnológico, que concentra el 74% de la adopción, según los datos recogidos por Unit 42. No obstante, también se registra un crecimiento sostenido en sectores como la educación (9,1%), telecomunicaciones (5,6%) y servicios profesionales y legales (3,1%), lo que amplía la superficie potencial de ataque a sectores tradicionalmente menos expuestos a este tipo de amenazas.
En cuanto a los usos más comunes de estas herramientas dentro de las organizaciones, destacan los asistentes de escritura (31,8%) y los generadores multimedia (24,5%), seguidos por la automatización de flujos de trabajo (15,8%) y el empleo de chatbots (13,2%). Estas funciones, si bien orientadas a mejorar la productividad, también representan vectores de riesgo cuando son empleadas de forma indebida o sin supervisión.
Herramientas vulnerables a explotación maliciosa
El informe destaca cómo determinadas herramientas —como los asistentes de código o los servicios de modelado de datos— pueden abrir vías de explotación. Entre los riesgos identificados figuran la exposición accidental de información confidencial, la generación de textos manipulativos difíciles de detectar y la creación de sitios fraudulentos que emulan la estética y lenguaje de marcas legítimas.
Este contexto ha derivado en campañas de phishing más realistas y difíciles de identificar, impulsadas por la velocidad con la que los atacantes pueden diseñar contenido personalizado, desde correos electrónicos hasta interfaces web completas.
Recomendaciones para mitigar el riesgo de phishing con IA generativa
Unit 42 propone una serie de medidas para mitigar los riesgos asociados al uso de IA generativa en el entorno corporativo. Las recomendaciones incluyen una combinación de soluciones tecnológicas, protocolos de seguridad y medidas de concienciación:
- Filtrado avanzado de URLs y DNS, orientado a detectar de forma temprana sitios maliciosos y dominios sospechosos.
- Supervisión del uso interno de plataformas GenAI, con el objetivo de identificar actividades no autorizadas.
- Formación continua de los empleados, para reforzar la capacidad de detección frente a mensajes manipulados.
- Planes de respuesta y contención, respaldados por equipos especializados para actuar en las primeras fases de un ataque.
- Gestión restrictiva de privilegios de acceso, bajo el principio de mínimo privilegio.
- Pruebas periódicas de penetración y auditorías de seguridad, para identificar vulnerabilidades en sistemas y procesos.
- Establecimiento de políticas corporativas claras sobre el uso de IA, que definan qué herramientas están autorizadas y en qué condiciones.
- Participación en redes de inteligencia compartida, como las promovidas por la Cyber Threat Alliance, para facilitar una respuesta colectiva ante amenazas emergentes.
Perspectiva de evolución del ecosistema GenAI
El informe de Unit 42 refleja cómo la evolución del ecosistema de inteligencia artificial generativa está transformando no solo los procesos empresariales, sino también los métodos de ataque utilizados por los grupos de amenazas. La expansión de estas herramientas en distintos sectores, sumada a su capacidad de generar contenido persuasivo a gran velocidad, plantea un desafío creciente para la seguridad corporativa.
Frente a este escenario, las empresas deberán adaptar sus políticas de ciberseguridad al nuevo contexto tecnológico, equilibrando el aprovechamiento de las capacidades de GenAI con mecanismos que garanticen un uso controlado, supervisado y seguro.
