En los planes de I+D de los ciberdelincuentes, la IA generativa encabeza la lista de prioridades. Capaz de generar texto, puede ser un arma formidable para desarrollar sofisticadas campañas de phishing dirigidas a empresas. Slashnext, editor de seguridad, descubrió una herramienta generativa basada en IA llamada WormGPT en foros clandestinos.
"Esta herramienta se presenta como una alternativa clandestina a los modelos GPT, diseñada específicamente para actividades maliciosas", dijo el investigador de seguridad Daniel Kelley. Y añade: “Los ciberdelincuentes pueden utilizar esta tecnología para automatizar la creación de correos electrónicos falsos muy convincentes, personalizados según el destinatario, aumentando así las posibilidades de que el ataque tenga éxito”. WormGPT es un módulo de inteligencia artificial basado en el modelo de lenguaje GPTJ, que se desarrolló en 2021. Viene con una serie de características, que incluyen soporte para caracteres ilimitados, chats de retención de memoria y capacidades de formato de código.
WormGPT produce correos electrónicos relevantes como este ejemplo para un contador. (Crédito de la foto: Slashnext)
Mensajes especializados para obligar a las IA generativas a cooperar
Aún en su investigación, los equipos de Slashnext observaron una tendencia en los foros que comparten "jailbreak" para la IA generativa, en particular ChatGPT y Bard. Se trata de mensajes especializados para obligar a los chatbots a generar resultados que pueden implicar la divulgación de información confidencial, la producción de contenido inapropiado o incluso la ejecución de código dañino.
Varios mensajes especializados están disponibles en los foros. (Crédito de la foto: Slashnext)
Ante este aumento del poder del lado oscuro, los editores de IA generativa están tomando medidas para evitar el uso indebido de los LLM (grandes modelos de lenguaje). Pero, no todos los jugadores están al mismo nivel como señala CheckPoint en un informe reciente“Las restricciones anti-abuso de ciberseguridad de Bard son significativamente más bajas que las de ChatGPT. Como resultado, es mucho más fácil generar contenido malicioso utilizando las capacidades de Bard.
Otras noticias que te pueden interesar