La IA generativa, en particular ChatGPT, no debe considerarse un recurso confiable para detectar vulnerabilidades en el código sin la supervisión crucial de un experto humano. Sin embargo, los modelos de IA son muy prometedores para observar ataques de día cero. Esto es según un último informe del Grupo NCC, que explora varios casos de uso de la IA en el campo de la ciberseguridad. El informe “Seguridad, privacidad y avisos: resiliencia cibernética en la era de la inteligencia artificial” fue publicado para ayudar a quienes quieran comprender mejor cómo se aplica la IA a la ciberseguridad, resumiendo cómo pueden utilizarla los profesionales en este campo.

Esta cuestión ha sido objeto de mucha discusión, investigación y opinión este año, tras la llegada explosiva y el crecimiento de la tecnología de IA generativa a finales de 2022. Se ha hablado mucho sobre los riesgos de seguridad que presentan los chatbots de IA generativa, ya sea Puede haber preocupaciones sobre información comercial confidencial que se comparte con algoritmos avanzados de autoaprendizaje o actores maliciosos que lo hacen. Se utiliza para fortalecer enormemente los ataques. Del mismo modo, muchos sostienen que, si se utilizan correctamente, los chatbots de IA generativa pueden mejorar las defensas de ciberseguridad.

Índice
  1. Monitoreo humano esencial para detectar vulnerabilidades de seguridad del código
  2. Aprendizaje automático "simple" eficaz para descubrir vulnerabilidades de día cero

Monitoreo humano esencial para detectar vulnerabilidades de seguridad del código

Uno de los puntos clave del informe es si el código fuente se puede introducir en un chatbot de IA generativa para descubrir si contiene errores de seguridad y resaltar con precisión las posibles vulnerabilidades para los desarrolladores. A pesar de las promesas y las ganancias de productividad que la IA generativa aporta al desarrollo de código, ha mostrado resultados mixtos en su capacidad para descubrir vulnerabilidades en el código de manera efectiva. destacó el grupo NCC.

"La eficacia o no de estos enfoques utilizando los modelos actuales ha sido objeto de investigación del Grupo NCC, y la conclusión es que la supervisión humana experta sigue siendo crucial", se lee en el informe. Utilizando ejemplos de código inseguro de Damn Vulnerable Web Application (DVWA), se pidió a ChatGPT que describiera las vulnerabilidades en una serie de ejemplos de código fuente PHP inseguro. En última instancia, los resultados son mixtos y ciertamente no es una forma confiable de encontrar vulnerabilidades en el código desarrollado.

Aprendizaje automático "simple" eficaz para descubrir vulnerabilidades de día cero

Otro caso de uso de la IA en la ciberseguridad defensiva explorado en el estudio implica el uso de modelos de aprendizaje automático (ML) para ayudar en la detección de ataques de día cero y proporcionar así una respuesta automatizada para proteger a los usuarios del malware. Para ello, la empresa apadrinó a un estudiante de maestría en el Centro de Formación Doctoral en Ciencias Intensivas de Datos (CDT DIS) del University College London (UCL) para desarrollar un modelo de clasificación para determinar si un archivo es malware. No sin éxito: “Se probaron varios modelos, el más eficiente alcanzó una precisión de clasificación del 98,9%”, se lee en el informe.

La inteligencia sobre amenazas implica monitorear múltiples fuentes de datos en línea que proporcionan datos de inteligencia sobre vulnerabilidades recientemente identificadas, exploits desarrollados y tendencias y patrones en el comportamiento de los atacantes. “Estos datos suelen ser datos de texto no estructurados de foros, redes sociales y la web oscura. Los modelos de ML se pueden utilizar para procesar esta información, identificar matices comunes de ciberseguridad en los datos y, por lo tanto, identificar tendencias en las tácticas, técnicas y procedimientos (TTP) de los atacantes, según el informe. Esto permite a los defensores implementar de manera proactiva y preventiva sistemas adicionales de monitoreo o control si las amenazas son particularmente importantes para su panorama empresarial o tecnológico, según el estudio.