¿Un nuevo riesgo a controlar para los CISO y CIO? Si nos basamos en un informe reciente de Recorded Future, seguro que lo parece. El especialista en seguimiento de ciberamenazas advierte de los riesgos que supone la clonación de voz asociada al avance de la inteligencia artificial. Además de la propagación de desinformación, es probable que la técnica eluda las autenticaciones multifactoriales (MFA) mediante la voz y se utilice en enfoques delictivos basados ​​en la ingeniería social (en particular, el fraude presidencial).

“Las plataformas de inteligencia artificial de código abierto o freemium reducen la barrera de entrada para los ciberdelincuentes poco calificados e inexpertos que buscan ingresar a este campo. La facilidad de uso y las características listas para usar de estas plataformas permiten a estos actores optimizar y automatizar tareas cibercriminales que de otro modo no podrían realizar”. escribiendo Futuro grabado. Sin olvidar que algunas plataformas de pago son accesibles a precios muy bajos (5 dólares al mes), como la de ElevenLabs que sirvió de base a Recorded Future para redactar su informe y que permite a los usuarios subir sus propias muestras de voz.

Autenticación MFA omitida

Los autores del informe destacan sobre todo un aumento en el interés de los ciberdelincuentes por esta técnica. La primera referencia a la clonación de voces como vector de ciberataques es bastante reciente (agosto de 2019, en el foro XSS en ruso), y aunque algunos ciberdelincuentes todavía dudan de su pertinencia (especialmente fuera del inglés), los debates sobre este tema se están acelerando cada vez más. los espacios de intercambio de la Dark Web. En particular a finales de 2022 y principios de 2023.

Recuerde que a principios de 2023, un periodista de VicioJoseph Cox, logró engañar a la seguridad de su banco gracias a una muestra de voz creada con la herramienta ElevenLabs. Basado en una simple muestra de 5 minutos de la voz de Joseph Cox, el sonido resultante fue suficiente para engañar al sistema MFA de la línea de ayuda y darle acceso a su cuenta. Como señala Recorded Future, también se ha demostrado que la clonación se utiliza para fraude contra el presidente: “de 2019 a 2023, delincuentes cometieron numerosas estafas de alto perfil que utilizaron tecnología de clonación de voces para imitar voces. de altos ejecutivos y defraudar a empresas y bancos”, al solicitar transferencias de dinero, alegando una emergencia.