Estás leyendo
Chat GPT: los ciberdelincuentes pueden usarlo como parte de sus estafas

Chat GPT: los ciberdelincuentes pueden usarlo como parte de sus estafas

  • Kaspersky ha analizado la forma en que la expansión de ChatGPT, uno de los modelos de Inteligencia Artificial más potentes hasta la fecha, puede cambiar las reglas establecidas en el mundo de la ciberseguridad. ChatGPT-3 puede explicar conceptos científicos complejos mejor que muchos profesores, escribir música y casi cualquier tipo de texto al gusto del usuario.
Ciberseguridad

ChatGPT-3 es un sistema de capaz de generar escritos que apenas se diferencian de los elaborados por una persona. Por ello, los ciberdelincuentes  aplican esta tecnología a los ataques de spear-phishing , estafa de correo electrónico o comunicaciones dirigida a personas, organizaciones o empresas específicas. Escribir mensajes personalizados suponía hasta ahora un gran esfuerzo para los ciberdelincuentes, pero con ya no será así: permite crear correos de phishing persuasivos, personalizados y masivos. De este modo, se prevé que los ataques de éxito basados en este modelo de Inteligencia Artificial crecerán.

Por si fuera poco, ChatGPT es también capaz de generar código informático malicioso. Ya no hace falta tener conocimientos de programación para crear malware, pero es algo que no será una amenaza si se dispone de sistemas de seguridad de confianza, ya que este tipo de soluciones detectan automáticamente los programas creados por bots y los neutralizan. Aunque algunos expertos han manifestado su preocupación porque ChatGPT pueda crear malware específicamente hecho para cada persona, el código mostrará un comportamiento malicioso que en casi todas las ocasiones será detectado por las soluciones de seguridad. La automatización completa de código malware no se ha conseguido por el momento.

Con todo ello, ChatGPT puede ser un aliado para los atacantes, pero también para quienes quieren defenderse de este tipo de amenazas. Puede desvelar rápidamente la función para la que ha sido creado un código informático, algo especialmente interesante en los SOC, centros en los que los expertos tienen mucha carga de trabajo. Cualquier herramienta que acelere los procesos de análisis es siempre bienvenida. En el futuro se verán sistemas inversos de ingeniería que ayudarán a comprender mejor el código y a crear modelos de investigación de vulnerabilidades y resolución de CTF (Capture The Flag) y mucho más.

Te puede interesar
Multicloud

Aunque ChatGPT no está diseñado para un uso criminal, puede ayudar a los ciberatacantes, por ejemplo, a escribir correos electrónicos de phishing creíbles y personalizados, si bien no es capaz de convertirse en un sistema de piratería autónomo. Además, el código malicioso que genera no tiene por qué funcionar correctamente. Se requiere de un especialista humano, capacitado y dedicado si se quiere mejorar el código. ChatGPT no tiene un impacto inmediato en la industria y no modifica las reglas de la , pero las próximas generaciones de IA probablemente sí lo harán. En los próximos años, veremos cómo los modelos de Inteligencia Artificial entrenados tanto en lenguaje natural como en código de programación se adaptarán a casos específicos de ciberseguridad. Estos cambios pueden afectar a una amplia gama de actividades del sector, desde la búsqueda de amenazas hasta la respuesta a incidentes. Las empresas de ciberseguridad explorarán las posibilidades que brindarán estas nuevas herramientas, al mismo tiempo que serán conscientes de cómo esta nueva tecnología puede ayudar a los ciberdelincuentes.Vladislav Tushkanov, experto en seguridad de Kaspersky

 

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad