¿Es posible diseñar un exploit de día cero utilizando únicamente ChatGPT? Una pregunta interesante planteada por el investigador de seguridad Aaron Mulgrew de Forcepoint a la que respondió afirmativamente. “Sin escribir ningún código, pudimos producir un ataque muy avanzado en tan solo unas horas. Calculo que un equipo de entre 5 y 10 desarrolladores de malware necesitaría algunas semanas para producir un ataque equivalente sin que un chatbot basado en inteligencia artificial eluda la detección del software de seguridad”. explicado Aarón Mulgrew.
Con su ejercicio, el experto indica que quería mostrar dos cosas: la facilidad con la que es posible eludir las -insuficientes- salvaguardas implementadas por ChatGPT, y la creación de malware avanzado sin escribir ningún código y utilizando únicamente el chatbot OpenAI. . Para lograr sus objetivos, Aaron Mulgrew demostró ingenio utilizando un técnica tan antigua como el tiempoesteganografía. A diferencia del cifrado, que consiste en hacer inaccesible el acceso a los datos, la esteganografía se utiliza para camuflar otros datos que deseamos que sean absolutamente inaccesibles en datos accesibles pero inútiles.
Se gana la ofuscación
Para generar su malware a través de ChatGPT, Aaron Mulgrew se basó en la malicia: el software le recordó que no era ético generar malware y, por lo tanto, inicialmente se negó a ofrecerle el código utilizado para ese propósito. La primera solicitud exitosa fue simplemente solicitar generar código para buscar un PNG de más de 5 MB en el disco local. Luego copie este código pidiéndole a la IA que agregue otro código que codificará el archivo PNG encontrado con esteganografía. ¿Qué sigue? Utilizando una serie de otras consultas, el investigador hizo que ChatGPT generara código adicional para buscar y encontrar documentos Word y PDF en un disco local, escribiera código para dividir los archivos más de 1 MB en pequeños trozos de 100 kb.
Para la infiltración inicial, Aaron Mulgrew le pidió a ChatGPT que creara un archivo SCR o un archivo de protector de pantalla e incrustara el ejecutable en él, alegando una mayor facilidad de uso para las aplicaciones comerciales cotidianas... "Disfracé mi solicitud de ofuscación como si pidiera proteger la propiedad intelectual de "El código, y ChatGPT nuevamente produjo un código de muestra que ocultaba nombres de variables y sugería módulos Go relevantes que podía usar para generar código completamente enmascarado", continúa el investigador. Un escenario que hizo posible que su código malicioso fuera de incógnito. El radar de VirusTotal "Para la exfiltración decidí que Google Drive sería una buena opción, ya que en la mayoría de las redes corporativas suele estar permitido todo el dominio de Google", afirma el investigador.
Ninguna contramedida real
A la espera de posibles ajustes y reconfiguraciones de ChatGPT para evitar este tipo de manipulación, los CISO podrían quedar indefensos ante este nuevo vector de ataque. “Las herramientas existentes que monitorean el tráfico de la red lo hacen de manera que detectan anomalías. Sin embargo, por diseño, la esteganografía no se considera tráfico inusual, porque los únicos documentos que cruzan la frontera son imágenes”, advierte el proveedor. "Es poco probable que las herramientas actuales de la mayoría de las empresas bloqueen el tráfico de carga de imágenes al dominio de Google, ya que el tráfico de carga de imágenes generalmente no es sinónimo de un ataque potencialmente avanzado y tendría el desafortunado efecto de bloquear muchos servicios legítimos de Google, como la búsqueda inversa de imágenes. .
Entre las mejores soluciones, lejos de ser infalibles, Forcepoint destaca el control de acceso, una mejor formación de los empleados en riesgos cibernéticos y la actualización constante del software. Pero, una vez más, esto podría no ser suficiente: "Este es un ataque avanzado que ni siquiera el software de remediación necesariamente puede contrarrestar, incluso después del descubrimiento de un día cero".
Otras noticias que te pueden interesar