Según una nueva investigación de Kaspersky, los líderes empresariales parecen haber perdido el control del despliegue, la supervisión y los objetivos de la IA generativa dentro de sus organizaciones. Sin embargo, según Isaca, una asociación profesional internacional cuyo objetivo es mejorar la gobernanza de los sistemas de información, sólo el 28% de las organizaciones autoriza expresamente el uso de IA generativa, y un número aún menor (10%) ha implementado una política formal. que rigen este uso. Una encuesta reciente realizada por la empresa de marketing Add People reveló que uno de cada tres trabajadores británicos utiliza herramientas de IA generativa sin el conocimiento de su jefe.

Índice
  1. Ejecutivos profundamente preocupados por los riesgos de seguridad
  2. Políticas insuficientes, gestión de riesgos fallida
  3. Aún falta formación

Ejecutivos profundamente preocupados por los riesgos de seguridad

Casi todos (95%) de los 1.863 ejecutivos europeos encuestados por Kaspersky creen que los empleados utilizan regularmente la IA generativa, y más de la mitad de ellos (53%) incluso dicen que ahora impulsa ciertos departamentos de la empresa. La escala de esta adquisición es tal que la mayoría de los ejecutivos (59%) expresan serias preocupaciones sobre los posibles riesgos de seguridad relacionados con el uso de la tecnología, riesgos que podrían poner en riesgo información confidencial de la empresa. negocio y dar como resultado una pérdida total de control de las funciones comerciales esenciales.

Sólo el 22% de los encuestados explica que su organización está discutiendo el establecimiento de reglas que regulen los usos internos, mientras que el 91% cree que necesitan comprender mejor cómo los empleados utilizan los datos internos para protegerse. riesgos críticos de seguridad o fugas de datos.

Políticas insuficientes, gestión de riesgos fallida

La encuesta de Isaca a 2.300 profesionales en todo el mundo revela que, si bien el uso de la IA generativa está aumentando, la mayoría de las organizaciones no cuentan con políticas suficientes ni una gestión eficaz. riesgos. Para el 40% de las empresas, los empleados utilizan la IA generativa a pesar de todo, sin preocuparse por estas debilidades, un porcentaje probablemente subestimado dado que el 35% de los encuestados no comentan la actitud de los empleados.

Los empleados utilizan la IA generativa de muchas maneras, incluida la creación de contenido escrito (65%), el aumento de la productividad (44%), la automatización de tareas repetitivas (32%), la prestación de servicio al cliente (29%) o la mejora adicional de la toma de decisiones (27%). según el estudio de Isaca.

Si bien el 41% de los encuestados cree que los estándares éticos relacionados con la IA no reciben suficiente atención, menos de un tercio de las organizaciones consideran la gestión de riesgos tecnológicos como una prioridad inmediata. Esto a pesar de que los encuestados asocian varios riesgos con la tecnología: desinformación (77%), violaciones de la privacidad (68%), ingeniería social (63) y pérdida de propiedad intelectual (58%). o el desplazamiento de puestos de trabajo y la ampliación de la brecha de habilidades (35% para cada ítem).

Aún falta formación

"Si bien la encuesta de Isaca muestra que la IA generativa se utiliza ampliamente para una variedad de propósitos, también resalta una brecha evidente en lo que respecta a consideraciones éticas y medidas de seguridad", escribe Raef Meeuwisse, autor de Inteligencia artificial para principiantes. “Solo el 6% de las organizaciones brinda capacitación integral en IA a todo el personal, y el 54% de ellas no brinda capacitación alguna. »

Esta falta de formación, unida a una atención insuficiente a las normas éticas, puede conducir a mayores riesgos, incluida la explotación por parte de actores maliciosos, opina Raef Meeuwisse: "Quizás no sea sorprendente que el 57% de los encuestados estén muy o extremadamente preocupados por la explotación de IA generativa por parte de actores maliciosos »