Seguridad
Kaspersky acaba de analizar la forma en que la expansión de ChatGPT, uno de los modelos de Inteligencia Artificial más potentes hasta la fecha, podría llegar a cambiar notablemente las reglas establecidas en el sector de la ciberseguridad.
ChatGPT-3, el sistema de Inteligencia Artificial capaz de generar escritos que apenas se diferencian de los elaborados por una persona, podría ser el artífice de estos cambios. Concretamente, los ciberdelincuentes ya aplican esta tecnología en los ataques de spear-phishing, la estafa de correo electrónico o comunicaciones dirigida a personas, organizaciones y también empresas específicas.
Desaparición de los textos sospechosos
Escribir mensajes personalizados suponía, hasta el momento, un notable esfuerzo para los ciberdelincuentes., Pero de la mano de ChatGPT ya no será así. Y es que éste permite crear correos de phishing persuasivos, personalizados y absolutamente masivos, anticipando que los ataques de éxito basados en este modelo de Inteligencia Artificial crecerán.
ChatGPT es capaz de generar código informático malicioso
Porque ya no hace falta tener conocimientos de programación para lograr crear malware, algo que no será una amenaza si se dispone de sistemas de seguridad de confianza. Así, este tipo de soluciones detectarán automáticamente los programas creados por bots, neutralizándolos. Aunque algunos expertos han manifestado su preocupación porque ChatGPT pueda lograr crear malware específicamente hecho para cada persona, el código, concretamente, mostrará un comportamiento malicioso que en casi todas las ocasiones podrá detectado por las soluciones de seguridad. La automatización completa de código malware no se ha logrado por el momento.
La opción de desvelar la función para la que se creó un código informático
Como consecuencia, ChatGPT puede ser un aliado para los atacantes, aunque también para quienes pretendan defenderse de este tipo de amenazas. Y es que puede desvelar rápidamente la función para la que ha sido creado un código informático, algo muy interesante en los SOC, centros en los que los expertos tienen mucha carga de trabajo.
Toda herramienta que acelere los procesos de análisis será bienvenida. En un futuro, se verán sistemas inversos de ingeniería capaces de ayudar a comprender mejor el código, creando modelos de investigación de vulnerabilidades y de resolución de CTF (Capture The Flag).
La clave: la mejora del código
“Aunque ChatGPT no está diseñado para un uso criminal, puede ayudar a los ciberatacantes, sin ir más lejos, a escribir correos electrónicos de phishing creíbles y personalizados. Por otro lado, el código malicioso que genera no tiene por qué funcionar correctamente. El motivo es que se requiere de un especialista humano, capacitado y dedicado si se quiere mejorar el código. ChatGPT no está teniendo un impacto inmediato en la industria y no puede modificar las reglas de la ciberseguridad, pero las próximas generaciones de IA probablemente sí lo harán”, asegura Vladislav Tushkanov, Experto en seguridad de Kaspersky.
Mayoristas Recomendados