Cada vez más empleados utilizan de forma masiva la IA generativa en sus empresas, sin autorización, a espaldas de sus CIO y CISO. Comparten documentos legales, código fuente y datos de RR.HH. con versiones de IA sin licencia, como ChatGPT y Google Gemini. Esto podría causar terribles dolores de cabeza a los equipos de TI y, sobre todo, poner en grave riesgo a la empresa.
De acuerdo con el informe de adopción de IA y Informe de riesgos del segundo trimestre de 2024 Según el editor de soluciones de seguridad de datos Cyberhaven Labs, casi el 74 % del uso de ChatGPT, que potencialmente brinda a los algoritmos la capacidad de entrenarse con datos de la empresa, se realiza a través de cuentas no laborales. El estudio se basa en los hábitos de uso reales de la IA de 3 millones de empleados. En el caso de Google Gemini y Bard, la tasa incluso alcanza el 94 %.
¿Pero a dónde van los datos?
Casi el 83% de todos los documentos legales compartidos con estas IA pasan por cuentas no corporativas, añade el informe, mientras que casi la mitad del código fuente, los documentos de I+D y los archivos de los empleados se envían a IA que no están validadas por la empresa. La cantidad de datos que se introducen en las herramientas de IA de esta manera se ha multiplicado casi por cinco. "Los usuarios finales están adoptando estas soluciones tan rápidamente que el departamento de TI no puede seguirles el ritmo, lo que aumenta el volumen de la IA en la sombra", añade el informe.
Sobre todo porque muchos usuarios no saben qué ocurre con los datos de su empresa una vez que los comparten con una IA sin licencia. Las condiciones de servicio de ChatGPT, por ejemplo, establecen que la propiedad del contenido capturado sigue siendo de los usuarios. Sin embargo, los algoritmos de OpenAI pueden utilizar este contenido para proporcionar, mantener, desarrollar y mejorar sus servicios, lo que significa que pueden entrenarse con los registros de los empleados, por ejemplo. Y, sin embargo, es posible solicitar una exclusión voluntaria para que ChatGPT no se entrene con estos datos.
Hasta ahora, todo bien
Hasta el momento, no se ha hecho pública ninguna filtración importante de secretos corporativos de ninguna de estas IA públicas, pero los expertos en seguridad están preocupados. Y el 28 de mayo, OpenAI anunció la creación de un nuevo comité de seguridad y protección. “El riesgo asociado con compartir información confidencial o sensible con IA disponibles públicamente es difícil de evaluar”, dijo Brian Vecci, director de tecnología del proveedor de seguridad en la nube Varonis. “Parece poco probable que organizaciones como Google u OpenAI permitan que sus IA filtren datos comerciales sensibles dado el escándalo que causaría”. Sin embargo, hay pocas reglas que regulen lo que los proveedores de IA pueden hacer con esta información proporcionada por el usuario.
Pero lo más importante es que en los próximos años saldrán al mercado muchos más modelos de IA, añade Vecci. “Vamos a ver muchas Gen AI que no son propiedad de Google ni de Open AI”, explica, “y probablemente se sentirán más cómodas sin asumir la responsabilidad de estas cosas porque están menos expuestas”. Las próximas oleadas de IA podrían convertirse en frentes de grupos de piratas informáticos u otras organizaciones interesadas en vender información confidencial sobre determinadas empresas, o simplemente podrían no tener suficientes protecciones de ciberseguridad. El director de tecnología de Varonis dice que ya existe un LLM similar a ChatGPT que es gratuito y rápido de usar, pero no está claro quién lo controla. “Si sus empleados lo están utilizando”, advierte, “y están compartiendo el código fuente o los estados financieros, eso podría ser un riesgo aún mayor”.
Comportamiento de riesgo
“Compartir datos corporativos o de clientes con una IA no autorizada crea el riesgo de que el modelo de IA se entrene con esos datos o los comparta con otros, simplemente porque ahora están fuera de las paredes de la empresa”, añade Pranava Adduri, director ejecutivo de Bedrock Security. Recomienda que las organizaciones firmen acuerdos de licencia con los proveedores de IA que incluyan restricciones de uso de datos para que los empleados puedan experimentar con la IA de forma segura. “El problema se reduce a la incapacidad de control”, continúa. “Si los datos se envían a un sistema sobre el que no se tiene control directo, el riesgo suele recaer en los contratos y acuerdos legales”.
Avepoint, una empresa de gestión de datos en la nube, firmó un contrato de IA para evitar el uso de IA en la sombra, como explica Dana Simberkoff, su directora de riesgos, privacidad y seguridad de la información. AvePoint revisó minuciosamente los términos de la licencia, incluida la restricción del uso de datos, antes de firmar.
Para Simberkoff, uno de los mayores problemas de la IA en la sombra es que los usuarios nunca leen la política de privacidad o las condiciones de uso antes de enviar los datos de la empresa directamente a la herramienta. “Rara vez hay transparencia sobre a dónde van esos datos, cómo se almacenan y para qué se pueden usar en el futuro”, afirma. “Y la mayoría de los usuarios no entienden necesariamente que estas tecnologías de IA abiertas, las que provienen de una multitud de actores y que se pueden usar en el navegador, en realidad se alimentan de los datos que ellos mismos ingieren”.
La IA, ¿el peor o mejor amigo del RSSI?
Avepoint ha intentado disuadir a los empleados de utilizar IA no autorizada a través de diversos medios: un programa de formación, controles estrictos de acceso a datos sensibles y otras medidas de seguridad cibernética que impiden el intercambio de datos. La empresa también ha trabajado en una política de uso aceptable de la IA. La formación de los empleados se centra en prácticas comunes, como conceder un acceso amplio a un documento sensible. Incluso si un empleado permite que sólo tres compañeros lo revisen, conceder acceso generalizado puede permitir que una IA ingiera los datos. “Estos algoritmos son como una bestia voraz y hambrienta que absorberá todo lo que pueda”, afirma Simberkoff. El uso de la IA, incluso bajo licencia oficial, debería llevar a las organizaciones a implementar buenas prácticas de gestión de datos, añade. Los controles de acceso deberían impedir que los empleados vean información sensible que no es necesaria para hacer su trabajo. “Las mejores prácticas de seguridad y privacidad de larga data siguen aplicándose en la era de la IA”.
“Implementar una IA que ingiera grandes cantidades de datos todo el tiempo es una buena prueba de estrés para los planes de seguridad y privacidad de una empresa”, añade. “Se ha convertido en mi mantra: la IA es el mejor amigo o el peor enemigo de un líder en seguridad o privacidad”. Simberkoff ha trabajado con varios clientes de AvePoint que se retiraron de proyectos de IA porque no tenían controles básicos establecidos, ni siquiera una política de uso aceptable. “No comprendían las implicaciones de lo que estaban haciendo hasta que sucedió algo malo”, afirma. “Si tuviera que dar un gran consejo, sería que está bien hacer una pausa. Hay mucha presión sobre las empresas para que implementen la IA demasiado rápido”.
Otras noticias que te pueden interesar