Los cibercriminales están empezando a utilizar la inteligencia artificial para hacer más eficientes sus operaciones, y su uso va mucho más allá de crear mejores cebos para las operaciones de phishing. Al igual que en las empresas, las discusiones sobre la IA entre los delincuentes se han acelerado este año en comparación con 2023, señalan los investigadores del grupo de ciberseguridad Intel 471 en un nuevo estudio publicado a principios de junio (titulado Cibercriminales e inteligencia artificial: no solo un mejor phishing).
Los investigadores afirman que los cibercriminales están siguiendo de cerca los avances en esta tecnología y experimentando. Algunos afirman que utilizan la IA para actividades como crear vídeos falsos, burlar el reconocimiento facial y sintetizar datos robados de ataques. Otros están integrando la IA en sus herramientas de piratería o creando chatbots maliciosos. Sin embargo, según el estudio, "el impacto más visible de la IA en el cibercrimen ha sido posiblemente el aumento de las estafas, en particular las que utilizan deepfakes".
Deepfake: de 60 a 400 dólares por minuto
Algunas de estas estafas han costado vidas, según el estudio. Por ejemplo, un grupo de ciberdelincuentes conocido como Yahoo Boys, con sede principalmente en Nigeria, utiliza deepfakes para estafas románticas y de sextorsión, ganándose la confianza de las víctimas mediante identidades falsas. A menudo persuaden a las víctimas para que compartan fotos comprometedoras, que luego amenazan con hacer públicas si no les pagan. Intel 471 dice que muchas de las víctimas objetivo son menores de edad y, en algunos casos, se han suicidado.
Según el estudio, las ofertas de deepfakes han aumentado significativamente desde enero de 2023 y se han vuelto más baratas. Un actor de amenazas afirma generar deepfakes de audio y video utilizando una herramienta de inteligencia artificial por entre 60 y 400 dólares por minuto, según la complejidad. Es una ganga en comparación con lo que pagarán en 2023. Otros actores de amenazas ofrecen un servicio de suscripción de 999 dólares al año por 300 intercambios de rostros por día en imágenes y videos.
Ganancias de productividad: también para los cibercriminales
Otros actores maliciosos están utilizando la IA en estafas de correo electrónico corporativas o fraude documental. Según el estudio, uno de ellos puede haber desarrollado una herramienta que utiliza la IA para manipular facturas, interceptar comunicaciones entre partes y alterar información como números de cuentas bancarias para redirigir los pagos. "Según se informa, la herramienta de manipulación de facturas tiene una amplia gama de capacidades, incluida la capacidad de detectar y modificar todos los documentos de Archivo de Documento Portátil (PDF) e intercambiar números de cuenta bancaria internacionales (IBAN) y códigos de identificación bancaria (BIC), escriben los autores del estudio. La herramienta se ofrece como una suscripción de $ 5,000 por mes o $ 15,000 por acceso de por vida. Si la herramienta funciona como se promete, aborda un caso de uso comúnmente citado para la IA que ofrece ganancias de productividad, pero en un contexto criminal". Otro delincuente afirma utilizar el modelo de lenguaje Llama de Meta para extraer los datos más sensibles de las violaciones de datos con el fin de presionar a la víctima para que pague un rescate.
El crimen, un mercado competitivo donde la IA es un activo
Sin embargo, no todos estos supuestos usos de la IA son necesariamente ciertos, según el analista de Intel 471 Jeremy Kirk. “Usamos el término 'supuestamente' para decir que es una afirmación de un actor de amenazas, y a menudo es difícil saber exactamente cuánta IA se ha incorporado a un producto, qué LLM se está utilizando, etc.”, dice. “En cuanto a la rapidez con la que los desarrolladores de herramientas cibercriminales están aprovechando la IA para obtener una ventaja competitiva, parece que estamos viendo un verdadero impulso para ver cómo la tecnología puede ayudar a los cibercriminales. Los mercados clandestinos son competitivos y, a menudo, hay más de un proveedor para un determinado servicio o producto. Por lo tanto, les interesa que su producto funcione mejor que otro, y la IA podría ayudarlos a lograrlo”.
Intel 471 ha investigado muchas afirmaciones dudosas, incluida una de cuatro científicos informáticos de la Universidad de Illinois Urbana-Champaign (UIUC) que afirman haber utilizado el LLM GPT-4 de OpenAI para explotar de forma autónoma vulnerabilidades en sistemas reales al alimentar el LLM con vulnerabilidades y exposiciones (CVE) disponibles públicamente que describen fallas. El estudio señala que "debido a que muchos elementos clave del estudio no se han publicado, como el código del agente, las indicaciones o el resultado del modelo, otros investigadores no pueden reproducirlos con precisión, lo que nuevamente invita al escepticismo".
Secuestro de la búsqueda aumentada de Google por parte de GenAI
Otros actores de amenazas han propuesto herramientas que recopilan y resumen datos CVE, así como una herramienta que integra lo que Intel 471 promociona como un modelo de IA bien conocido en una herramienta de piratería versátil que puede hacer de todo, desde análisis de red hasta búsqueda de vulnerabilidades en sistemas de gestión de contenido y escritura de scripts maliciosos.
Los autores del estudio también destacaron algunos de los nuevos riesgos que surgen a medida que se expande el uso de la IA. redirección a sitios maliciosos a través de la generación de recomendaciones en la nueva experiencia de búsqueda de Google, impulsada por IA generativa. O como vulnerabilidades en aplicaciones de IA. Además, se ha observado que estados y otras entidades utilizan LLM para múltiples tipos de ataques. El estudio cita publicaciones de blogs de Microsoft y OpenAI que identifican específicamente cinco grupos patrocinados por estados, uno de Rusia, uno de Corea del Norte, uno de Irán y uno de China.
La situación sólo empeorará
Intel 471 afirma que, si bien la IA ha desempeñado históricamente solo un "pequeño papel de apoyo" en el cibercrimen, el papel de la tecnología ya ha crecido. Los analistas esperan ver un aumento en las actividades basadas en deepfakes, phishing o compromiso de correo electrónico empresarial, así como campañas de desinformación impulsadas por la capacidad de los LLM para generar contenido. "El panorama de la seguridad cambiará drásticamente cuando un LLM pueda encontrar una vulnerabilidad, escribir y probar el código de explotación y luego explotar las vulnerabilidades de forma autónoma", añaden los autores del estudio.
“El aprendizaje automático y la tecnología conocida como IA han estado presentes en la industria de la seguridad durante mucho tiempo, desde la lucha contra el spam hasta la detección de malware”, afirma Kirk. “Como mínimo, la IA podría ayudar a acelerar los ataques, pero también podría ayudar a fortalecer las defensas. Habrá momentos en los que los atacantes tendrán la ventaja y momentos en los que los defensores los alcanzarán, pero eso no es diferente a lo que estamos viendo ahora. La forma en que los cibercriminales puedan usar la IA también dependerá de la disponibilidad de LLM y modelos de IA que tengan pocas barreras de protección: herramientas que permitan solicitudes de información o código que podrían ayudar en el uso malicioso”.
Otras noticias que te pueden interesar