Los expertos dicen que las prohibiciones de IA en el lugar de trabajo no funcionarán

hace 1 año

Applications

Un estudio reciente publicado por el proveedor de servicios y software de seguridad empresarial BlackBerry reveló que el 75% de las organizaciones en todo el mundo están implementando o considerando implementar prohibiciones en el lugar de trabajo sobre ChatGPT y otras aplicaciones generativas de IA. Sin embargo, los expertos interrogados por TechNewsWorld se mostraron escépticos sobre la eficacia de tales prohibiciones.

El estudio, basado en una encuesta realizada por OnePoll a 2.000 tomadores de decisiones de TI en América del Norte, Europa y Asia, también encontró que el 61% de las organizaciones que implementan o consideran prohibiciones pretenden que las medidas sean a largo plazo o permanentes, con riesgos para la seguridad de los datos. la privacidad y la reputación corporativa impulsan las decisiones para tomar medidas.

"Estas prohibiciones son esencialmente inaplicables y hacen poco más que hacer que los administradores de riesgos se sientan mejor porque se está limitando la responsabilidad", declaró John Bambenek, principal cazador de amenazas en Netenrich, una empresa de operaciones de seguridad digital y TI en San José, California.

"Lo que nos muestra la historia es que cuando hay herramientas disponibles que mejoran la productividad o la calidad de vida de los trabajadores, los trabajadores encuentran la manera de utilizarlas de todos modos", dijo a TechNewsWorld. "Si ese uso está fuera de los controles o la visibilidad de la organización, los equipos de seguridad simplemente no pueden proteger los datos". "Cada empleado tiene un teléfono inteligente, por lo que las prohibiciones no necesariamente funcionan muy bien", añadió JP Gownder, vicepresidente y analista principal de Forrester Research, una empresa de investigación de mercado con sede en Cambridge, Massachusetts.

"La razón por la que los empleados utilizan estas herramientas es para ser más productivos, acelerar su eficiencia y encontrar respuestas a preguntas que no pueden responder fácilmente", dijo a TechNewsWorld.

Gownder recomendó que los empleadores proporcionen herramientas aprobadas por la empresa que satisfagan las necesidades de sus empleados. "Al hacerlo, pueden diseñar soluciones de IA generativa para la fuerza laboral que sean seguras, que utilicen técnicas para minimizar las alucinaciones y que puedan ser auditadas y rastreadas después de su uso", dijo.

Prohibiciones generales sobre la IA son peligrosas

Greg Sterling, cofundador de Near Media, un sitio web de noticias, comentarios y análisis, señaló que las empresas que prohíben totalmente la IA lo hacen bajo su propio riesgo. "Corren el riesgo de perder los beneficios de eficiencia y productividad de la IA generativa", dijo a TechNewsWorld.

"No podrán prohibir completamente las herramientas de inteligencia artificial", afirmó. "La IA será un componente de prácticamente todas las herramientas SaaS dentro de un período de tiempo muy corto".

"En la práctica, las empresas no pueden controlar completamente el uso de los dispositivos de sus empleados", añadió Sterling. "Necesitan educar mejor a los empleados sobre los riesgos asociados con el uso de ciertas aplicaciones, en lugar de simplemente implementar prohibiciones".

Nate MacLeitch, fundador y director ejecutivo del proveedor de soluciones de comunicación QuickBlox, cuestionó el seguimiento de las empresas que dijeron a los encuestadores que planeaban imponer prohibiciones.

"Creo que el 75% es más alto de lo que será en realidad", dijo a TechNewsWorld. "Lo que sucederá es que gran parte de la IA generativa se integrará en aplicaciones y servicios que utilizarán las organizaciones, aunque definitivamente habrá controles en alguna parte".

"En última instancia, una prohibición total de una tecnología nueva, creciente y querida no funcionará del todo", añadió Roger Grimes, evangelista de defensa de KnowBe4, un proveedor de capacitación en concientización sobre seguridad en Clearwater, Florida.

"En realidad, podría funcionar para prevenir la filtración de información confidencial, pero la tecnología en sí prosperará y crecerá en torno a cualquier prohibición", dijo a TechNewsWorld.

Las prohibiciones pueden crear un riesgo competitivo para una organización, sostuvo. "Una vez que los competidores comiencen a ver ventajas competitivas de la IA, y las verán, las prohibiciones tendrán que disminuir, o de lo contrario la organización no sobrevivirá ni prosperará", dijo.

Enfoque inviable

John Gallagher, vicepresidente de Viakoo, un proveedor de ciberhigiene automatizada de IoT en Mountain View, California, sostuvo que las prohibiciones sobre el uso de IA generativa en el lugar de trabajo son inviables, especialmente en esta etapa del desarrollo de la tecnología cuando sus usos están cambiando rápidamente.

"¿Debería una organización prohibir el uso de Bing porque sus resultados de búsqueda incorporan IA generativa?" preguntó. “¿Pueden los empleados seguir usando Zoom, aunque las nuevas funciones incorporen IA generativa, o se limitarán a versiones específicas de la aplicación que no tengan esas funciones?”

"Estas prohibiciones son buenas en teoría, pero en la práctica no se pueden hacer cumplir", dijo Gallagher a TechNewsWorld.

Sostuvo que las prohibiciones podrían hacer más daño que bien a una organización. “Los controles que no se pueden hacer cumplir o definir estrictamente acabarán siendo ignorados por los trabajadores y desacreditarán los esfuerzos futuros para hacer cumplir dichos controles”, afirmó. "Deben evitarse las prohibiciones vagamente definidas debido al daño a la reputación que pueden provocar".

¿Por qué prohibir la IA?

Barbara J. Evans, profesora de derecho e ingeniería en la Universidad de Florida, explicó que las organizaciones pueden imponer prohibiciones de IA en el lugar de trabajo por varias razones.

"Las herramientas de software de IA generativa, al menos en la actualidad, tienen el potencial de proporcionar información falsa o de baja calidad", explicó a TechNewsWorld. "Para consultores, bufetes de abogados y otras empresas que brindan servicios de información a sus clientes, vender información incorrecta puede generar demandas y daños a la reputación".

Evans señaló que otra preocupación importante es la privacidad y seguridad de la información comercial confidencial y de propiedad exclusiva. "Al hacer preguntas a una herramienta de inteligencia artificial generativa, los empleados pueden revelar secretos comerciales o información confidencial sobre sus clientes", dijo.

"Cuando lea las políticas de privacidad de estas herramientas", agregó Evans, "puede descubrir que al usar la herramienta, acepta que el desarrollador de la herramienta puede usar todo lo que usted le revele para refinar aún más su modelo o para otros usos".

Sostuvo que las empresas también pueden prohibir la IA como cuestión de relaciones con los empleados. "La gente está preocupada por ser reemplazada por la IA, y prohibir el uso de la IA en el lugar de trabajo podría ser una buena manera de elevar la moral de los empleados y enviar una señal de que 'no buscamos reemplazarte con un robot, al menos no". esta generación de robots'”, explicó Evans.

Hacer que la IA sea segura

Las organizaciones están prohibiendo la IA en el lugar de trabajo debido a una gran preocupación, pero además de los riesgos, también se deben considerar los beneficios de la tecnología, sostuvo Jennifer Huddleston, investigadora de políticas tecnológicas en el Instituto Cato, un estudio de Washington, DC. tanque.

"Las nuevas tecnologías como la IA pueden ayudar a los empleados a mejorar su eficiencia y productividad, pero al menos en algunos casos todavía requieren que los humanos verifiquen la precisión de sus resultados", dijo a TechNewsWorld.

"En lugar de prohibir rotundamente el uso de una tecnología, las organizaciones tal vez quieran considerar si hay otras formas de abordar sus inquietudes específicas y al mismo tiempo empoderar a los empleados para que utilicen la tecnología con fines beneficiosos", dijo Huddleston.

Evans añadió que, en última instancia, es posible que los humanos tengan que aprovechar la IA para ayudarles a regularla. "En algún momento, es posible que los humanos no seamos lo suficientemente rápidos o inteligentes para detectar los errores de la IA", dijo. "Quizás el futuro esté en el desarrollo de herramientas de IA que puedan ayudarnos a verificar rápidamente los resultados de otras herramientas de IA: un sistema de revisión por pares de IA que aproveche las herramientas de IA para revisarse entre sí".

"Pero si 10 herramientas de IA generativa coinciden en que algo es cierto, ¿eso nos dará confianza en que es cierto?" preguntó ella. “¿Qué pasa si todos están alucinando?”

Si quieres conocer otros artículos parecidos a Los expertos dicen que las prohibiciones de IA en el lugar de trabajo no funcionarán puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad