La inteligencia artificial generativa ya no es solo una herramienta de productividad o innovación. También se ha convertido en un arma al alcance de los ciberdelincuentes. Según el último informe de Unit 42 , la unidad de inteligencia de amenazas de Palo Alto Networks, modelos como WormGPT 4 y KawaiiGPT están siendo utilizados para automatizar ataques informáticos con una eficacia y velocidad inéditas.
Ambos modelos, diseñados sin filtros éticos ni restricciones técnicas, permiten generar campañas de phishing, código malicioso funcional, scripts de movimiento lateral y notas de ransomware completas en cuestión de segundos. El fenómeno, que Unit 42 enmarca dentro del dilema del doble uso de la IA, plantea un reto estructural: la misma tecnología que protege puede ser utilizada para atacar, y lo está siendo.
WormGPT 4 opera como un servicio de suscripción distribuido a través de Telegram. Con precios que oscilan entre los 43 euros mensuales y los 190 por acceso ilimitado, ha conseguido formar una comunidad activa con más de 500 suscriptores. KawaiiGPT, en contraste, es gratuito, de código abierto y puede instalarse desde GitHub en pocos minutos. Su disponibilidad pública y su facilidad de uso lo convierten en una amenaza especialmente difícil de contener.
“Lo que cambia las reglas del juego no es solo la capacidad técnica de estos modelos, sino la velocidad con la que permiten escalar ataques”, explica Ángel Serrano, Senior Manager de Technical Solutions en Iberia para Palo Alto Networks. “Ya no hablamos de cibercriminales expertos, sino de cualquier usuario con acceso a estas herramientas”.
La automatización del cibercrimen
La barrera de entrada al cibercrimen ha caído en picado. Antes, lanzar un ataque sofisticado requería conocimientos técnicos, tiempo y recursos. Ahora, basta con acceder a uno de estos modelos. WormGPT 4 y KawaiiGPT pueden generar mensajes de spear phishing con lenguaje natural, diseñar scripts para moverse lateralmente dentro de una red corporativa o redactar instrucciones operativas para desplegar malware.
En el caso de KawaiiGPT, su carácter open source facilita su modificación y adaptación a distintos entornos. Esto multiplica su potencial de uso, pero también su capacidad de evasión. No hay un único modelo que pueda ser rastreado o bloqueado, sino múltiples versiones circulando en paralelo.
El informe de Unit 42 subraya que estos modelos no solo producen contenido textual convincente, sino también código funcional. Desde troyanos básicos hasta herramientas de exfiltración de datos, pasando por notas de rescate listas para su uso en ataques de ransomware. La IA ofensiva, como la denominan algunos analistas, ya no es una hipótesis. Es una realidad operativa.
Un problema distribuido, no centralizado
La descentralización de estas herramientas complica su contención. A diferencia de los grandes modelos comerciales, que operan bajo marcos regulatorios y con supervisión ética, WormGPT 4 y KawaiiGPT escapan a cualquier control institucional. No hay una empresa detrás, ni un punto único de intervención. Su proliferación se apoya en redes distribuidas, foros clandestinos y plataformas públicas como GitHub.
Esto plantea un dilema para las organizaciones. ¿Cómo defenderse de una amenaza que no tiene rostro ni sede? ¿Cómo anticipar ataques generados por modelos que cambian constantemente y que pueden ser entrenados con datos específicos para evadir defensas concretas?
La respuesta, según Palo Alto Networks, no pasa únicamente por reforzar la tecnología, sino por adoptar una estrategia integral. Esto incluye desde la formación continua de empleados hasta la definición de políticas internas sobre el uso de IA, pasando por la participación en redes de intercambio de información entre empresas.
Medidas de contención posibles
Entre las recomendaciones que recoge el informe destacan la vigilancia activa del uso de IA dentro de la organización, el refuerzo de los sistemas de detección de amenazas en correo electrónico y navegación web, y la limitación de permisos de acceso a información sensible. También se sugiere realizar simulacros de ciberataques y auditorías periódicas para identificar vulnerabilidades antes de que puedan ser explotadas.
Aunque estas medidas no eliminan el riesgo, sí permiten reducir la superficie de ataque y aumentar la capacidad de respuesta. La clave, insisten desde Unit 42, está en asumir que la amenaza es continua y evolutiva. No se trata de un ataque puntual, sino de un cambio de paradigma en la forma en que se ejecuta el cibercrimen.
El dilema del doble uso
El caso de WormGPT 4 y KawaiiGPT reabre un debate que lleva años en el centro de la discusión sobre inteligencia artificial: el doble uso. Herramientas desarrolladas para fines legítimos pueden ser adaptadas para causar daño. Y cuando el código es abierto, la línea entre lo ético y lo funcional se vuelve difusa.
En este sentido, la regulación aún va por detrás. Mientras se discuten marcos normativos para modelos generales, los LLMs maliciosos ya circulan sin restricciones. La paradoja es evidente: cuanto más se democratiza la IA, más difícil resulta controlar sus usos desviados.
Para las empresas, esto implica un cambio de mentalidad. No basta con protegerse de amenazas conocidas. Hay que anticipar comportamientos emergentes, monitorizar entornos no convencionales y entender que el adversario ya no es solo un hacker en la sombra, sino una IA entrenada para atacar.
El futuro inmediato
A corto plazo, es poco probable que la proliferación de LLMs maliciosos se detenga. Su bajo coste, su accesibilidad y su eficacia los convierten en herramientas atractivas para actores de todo tipo, desde grupos organizados hasta individuos con motivaciones económicas o ideológicas.
Lo que sí está en juego es la capacidad de las organizaciones para adaptarse. La inteligencia artificial no es solo una ventaja competitiva. También es un vector de riesgo. Y como tal, exige una respuesta estructural, no reactiva. La pregunta ya no es si estos modelos se usarán para atacar, sino cómo responder cuando lo hagan.
