En los equipos de desarrollo, el uso de la IA aún no es la norma, pero parece probable que lo sea. Según un estudio de GitLab, realizado entre 1.000 profesionales del desarrollo, tomadores de decisiones de TI y especialistas cibernéticos en junio pasado, el 23% de los equipos de DevSecOps ya utilizan IA en un momento u otro del ciclo de desarrollo de software. . Sobre todo, dos tercios de los profesionales encuestados planean utilizar la IA para estas prácticas, ya sea a corto plazo (menos de un año para el 19% de los encuestados, menos de dos para otro 22%), o a largo plazo o sin fijar un plazo concreto (26%). Por el contrario, el 9% de los desarrolladores excluyen en esta etapa cualquier uso de la IA dentro de su colectivo de desarrollo. Sin embargo, sólo el 1% de las organizaciones ha prohibido formalmente el uso de IA en sus actividades de desarrollo de software.

El 83% de los profesionales encuestados también piensa que es fundamental implementar la IA en sus procesos de desarrollo, ya sea producción de código, revisión de código, pruebas o procedimientos de seguridad, para no verse superados por la competencia. Un nivel homogéneo “independientemente del área funcional de los encuestados (desarrollo, operaciones, seguridad), nivel jerárquico o años de experiencia”, subraya GitLab. Y, entre los profesionales que ya utilizan la IA, seis de cada diez la utilizan al menos una vez al día. Además, los equipos de desarrollo que ya utilizan estas capacidades las implementan de manera bastante amplia: en tres cuartas partes de los casos, al menos una cuarta parte del equipo de DevSecOps tiene acceso a funcionalidades de IA. Conclusión lógica de estas tendencias: las empresas que utilizan la IA o planean hacerlo dedicarán un presupuesto específico a la introducción de la IA en el proceso de desarrollo.

Índice
  1. Consultar documentación, crear escenarios de prueba.
  2. Respeto a la confidencialidad de los datos.
    1. Usos de la IA: más allá de la simple producción de código

Consultar documentación, crear escenarios de prueba.

El estudio de GitLab también destaca cómo la producción de código es sólo un aspecto del uso de la IA en el desarrollo. En primer lugar, en promedio, los desarrolladores sólo dedican una cuarta parte de su tiempo a esta actividad. Además, los tres usos más comunes actualmente (chatbots que permiten consultar documentación en lenguaje natural, creación de pruebas automatizadas y resúmenes automáticos de cambios realizados en el código) muestran claramente que la IA no se dedica a limitarse únicamente a escribir código. Para los profesionales encuestados, la tecnología permite o debería permitirles mejorar su productividad (citado por el 51%), acelerar los despliegues (44%), reducir los errores (40%), mejorar la monitorización (40%) o predecir posibles problemas (40%). ).

La llegada de la IA, sin embargo, no deja de generar ciertas preocupaciones entre los equipos de desarrollo. Empezando por las preguntas sobre los derechos de autor asociados al código generado por IA, planteadas por el 48% de los encuestados. El artículo anticipa la necesaria adaptación de habilidades y el miedo a que la IA introduzca fallos de seguridad en el código. GitLab también destaca que el 40% de los profesionales de la seguridad esperan que la llegada de la tecnología haga su trabajo más pesado. Tenga en cuenta también que, este verano, investigadores de la Universidad Americana de Purdue publicaron un estudio que confirma estos temores.

Aunque las preocupaciones sobre el empleo no aparecen entre las tres respuestas principales citadas por los profesionales, sí aparecen claramente en el estudio. El 37% de los encuestados explica que la IA hará más difícil encontrar un nuevo trabajo en su especialidad y el 36% piensa que esta tecnología sustituirá o eliminará su rol actual.

Respeto a la confidencialidad de los datos.

Más allá de estas preocupaciones sobre sus carreras, los encuestados también destacan los riesgos asociados con el acceso de la IA a datos confidenciales. El 72% de los profesionales dicen que les preocupa que las herramientas de inteligencia artificial accedan a datos confidenciales, como los datos de los clientes. Mientras que el 48% dice estar preocupado por los riesgos de exponer secretos comerciales (como planes de productos o código fuente). Además, el 37% de las empresas dicen que han encontrado o creen que encontrarán dificultades con la confidencialidad de los datos en el uso de la IA durante el ciclo de desarrollo de software.

La inevitable llegada de la IA a los procesos de desarrollo reseñados en el estudio de GitLab obligará a las organizaciones a adaptar las habilidades de los equipos especializados. El 81% de los encuestados coincide en que necesitan más formación para utilizar la IA en su vida diaria, y el 87% dice que su empresa necesitará adaptar las habilidades de sus empleados para adaptarse a los cambios que traerá la IA.