mayoristas informatica
Seguridad

Los ciberdelincuentes ya usan Chat GPT como parte de sus estafas

Publicado 13 Feb 2023
Kaspersky ataques

Kaspersky acaba de analizar la forma en que la expansión de ChatGPT, uno de los modelos de Inteligencia Artificial más potentes hasta la fecha, podría llegar a cambiar notablemente las reglas establecidas en el sector de la ciberseguridad.

ChatGPT-3, el sistema de Inteligencia Artificial capaz de generar escritos que apenas se diferencian de los elaborados por una persona, podría ser el artífice de estos cambios. Concretamente, los ciberdelincuentes ya aplican esta tecnología en los ataques de spear-phishing, la estafa de correo electrónico o comunicaciones dirigida a personas, organizaciones y también empresas específicas.

Desaparición de los textos sospechosos

Escribir mensajes personalizados suponía, hasta el momento, un notable esfuerzo para los ciberdelincuentes., Pero de la mano de ChatGPT ya no será así. Y es que éste permite crear correos de phishing persuasivos, personalizados y absolutamente masivos, anticipando que los ataques de éxito basados en este modelo de Inteligencia Artificial crecerán.

ChatGPT es capaz de generar código informático malicioso

Porque ya no hace falta tener conocimientos de programación para lograr crear malware, algo que no será una amenaza si se dispone de sistemas de seguridad de confianza. Así, este tipo de soluciones detectarán automáticamente los programas creados por bots, neutralizándolos. Aunque algunos expertos han manifestado su preocupación porque ChatGPT pueda lograr crear malware específicamente hecho para cada persona, el código, concretamente, mostrará un comportamiento malicioso que en casi todas las ocasiones podrá detectado por las soluciones de seguridad. La automatización completa de código malware no se ha logrado por el momento.

La opción de desvelar la función para la que se creó un código informático

Como consecuencia, ChatGPT puede ser un aliado para los atacantes, aunque también para quienes pretendan defenderse de este tipo de amenazas. Y es que puede desvelar rápidamente la función para la que ha sido creado un código informático, algo muy interesante en los SOC, centros en los que los expertos tienen mucha carga de trabajo.

Toda herramienta que acelere los procesos de análisis será bienvenida. En un futuro, se verán sistemas inversos de ingeniería capaces de ayudar a comprender mejor el código, creando modelos de investigación de vulnerabilidades y de resolución de CTF (Capture The Flag).

La clave: la mejora del código


“Aunque ChatGPT no está diseñado para un uso criminal, puede ayudar a los ciberatacantes, sin ir más lejos, a escribir correos electrónicos de phishing creíbles y personalizados. Por otro lado, el código malicioso que genera no tiene por qué funcionar correctamente. El motivo es que se requiere de un especialista humano, capacitado y dedicado si se quiere mejorar el código. ChatGPT no está teniendo un impacto inmediato en la industria y no puede modificar las reglas de la ciberseguridad, pero las próximas generaciones de IA probablemente sí lo harán”, asegura Vladislav Tushkanov, Experto en seguridad de Kaspersky.
Este sitio Web utiliza cookies propias y de terceros para habilitar las funcionalidades técnicas de uso de la web, realizar estadísticas y análisis del tráfico de navegación recibido, personalizar las preferencias del usuario y otras para ofrecer anuncios y publicidad. También permitimos el uso de funcionalidades para interactuar con redes sociales. Puedes informarte más sobre qué cookies estamos utilizando en nuestra política de cookies