La evolución de la IA: cómo afrontar los miedos, los prejuicios, la seguridad y la eficiencia

hace 11 meses

AI in the workplace

Con el aumento de la popularidad de la inteligencia artificial, los jefes de alto nivel presionan a los gerentes para que utilicen la IA y el aprendizaje automático. Las consecuencias están causando problemas, ya que los ejecutivos de nivel medio luchan por encontrar formas de satisfacer la demanda de soluciones de IA de próxima generación.

Como resultado, un número cada vez mayor de empresas no preparadas se están quedando atrás. Lo que está en juego es el impacto negativo que pueden sufrir las empresas de diversas industrias por no integrar rápidamente la IA generativa y los grandes modelos lingüísticos (LLM).

Estas tecnologías de inteligencia artificial son la nueva gran novedad en automatización y productividad en el lugar de trabajo. Tienen el potencial de revolucionar la forma de trabajar, aumentando la eficiencia, fomentando la innovación y redefiniendo la naturaleza de ciertos trabajos.

La IA generativa es uno de los derivados de la IA más prometedores. Puede facilitar la resolución colaborativa de problemas basándose en datos reales de la empresa para optimizar los procesos comerciales. Los LLM pueden ayudar automatizando tareas rutinarias, liberando tiempo para proyectos más complejos y creativos.

Tres problemas persistentes que enfrentan las organizaciones para lograr que la transformación de la IA funcione son los que ocupan el primer lugar. Hasta que las empresas los resuelvan, seguirán teniendo dificultades para avanzar en el uso de la IA de manera productiva, según Morgan Llewellyn, director de datos y estrategia de Stellar. Explicó que deben:

  • Conozca las capacidades de la IA,
  • Comprender lo que es posible para sus procesos de trabajo internos y
  • Aumentar la capacidad de los trabajadores para afrontar los cambios.

Tal vez una lucha aún más desconcertante se encuentre en las preocupaciones no resueltas sobre las salvaguardas de seguridad para evitar que las operaciones de IA sobrepasen los conceptos de privacidad impuestos por los humanos, agregó Mike Mason, director de IA en Thoughtworks. Sostiene que confiar en la regulación es el enfoque equivocado.

“Con demasiada frecuencia, los reguladores han tenido dificultades para seguir el ritmo de la tecnología y han promulgado leyes que frenan la innovación. La presión para la regulación continuará a menos que la industria aborde la cuestión de la confianza de los consumidores”, dijo Mason a TechNewsWorld.

Persiguiendo una visión impopular

Mason sostiene que confiar en la regulación es un enfoque equivocado. Las empresas pueden ganarse la confianza de los consumidores y potencialmente evitar una legislación engorrosa mediante un enfoque responsable de la IA generativa.

Sostiene que la solución al problema de la seguridad está en las industrias que utilizan la nueva tecnología para garantizar el uso responsable y ético de la IA generativa. No le corresponde al gobierno imponer barreras de protección.

“Nuestro mensaje es que las empresas deben ser conscientes de esta opinión de los consumidores y deben darse cuenta de que, incluso si no se promulgan regulaciones gubernamentales en el resto del mundo, aún así son responsables ante el tribunal de la opinión pública”, argumentó.

La opinión de Mason contradice estudios recientes que favorecen una mano regulatoria fuerte. Una mayoría (56%) de los consumidores no confía en que las empresas implementen la IA de manera responsable.

Esos estudios muestran que 10.000 consumidores en 10 países revelan que una gran mayoría (90%) de los consumidores está de acuerdo en que son necesarias nuevas regulaciones para responsabilizar a las empresas por cómo utilizan la IA de última generación, admitió.


Mason basó su punto de vista opuesto en otras respuestas en esos estudios, que muestran que las empresas pueden crear su licencia social para operar responsablemente.

Señaló que el 83% de los consumidores estuvo de acuerdo en que las empresas pueden usar la IA generativa para ser más innovadoras y brindarles un mejor servicio. Aproximadamente la misma cantidad (85%) prefiere empresas que defiendan la transparencia y la equidad en el uso de la IA generativa.

Thoughtworks es una consultoría tecnológica que integra estrategia, diseño e ingeniería de software para permitir que las empresas y los disruptores tecnológicos prosperen.

“Tenemos una sólida trayectoria como integradores de sistemas y sabemos no solo cómo utilizar nuevas tecnologías, sino también cómo lograr que funcionen bien con todos los sistemas existentes y antiguos. Por eso, definitivamente diría que ese es un problema”, afirmó Mason.

Controle a los malos actores, no a la buena IA

Llewellyn, de Stellar, apoya la idea de que las preocupaciones de seguridad por las violaciones de seguridad de la IA se pueden manejar sin una mano dura en la regulación gubernamental. Confiesa que existen agujeros en los sistemas informáticos que pueden dar a los actores maliciosos nuevas oportunidades de hacer daño.

“Al igual que ocurre con la implementación de cualquier otra tecnología, el problema de seguridad no es insuperable cuando se implementa correctamente”, dijo Llewellyn a TechNewsWorld.

La IA generativa irrumpió en escena hace aproximadamente un año. Nadie tenía los recursos humanos necesarios para manejar la nueva tecnología junto con todo lo que ya se estaba haciendo, observó.

Todas las industrias siguen buscando respuestas a cuatro preguntas inquietantes sobre el papel de la IA en sus organizaciones: ¿qué es?, ¿cómo beneficia a mi negocio?, ¿cómo puedo hacerlo de manera segura y protegida?, ¿cómo encuentro el talento para implementar esta nueva tecnología?

Ese es el papel que cumple Stellar para las empresas que se enfrentan a esas preguntas. Ayuda con la estrategia para que los adoptantes comprendan qué enfoque adopta la IA en su negocio.

Luego, Stellar se encarga del trabajo de diseño de la infraestructura, donde se abordan todas esas cuestiones de seguridad. Por último, Stellar puede intervenir y ayudar a implementar una solución creíble para la empresa, explicó Llewellyn.

El espectro de ciencia ficción de los peligros de la IA

Desde la perspectiva de un desarrollador de software, Mason ve dos puntos de vista igualmente preocupantes sobre los peligros potenciales de la IA. Uno es el de la ciencia ficción y el otro, su uso invasivo.

Él ve a la gente pensando en la IA en términos de si crea una superinteligencia descontrolada que decide que los humanos se interponen en el camino de sus otros objetivos y acaba con todos nosotros.

“Creo que es definitivamente cierto que no se ha realizado suficiente investigación y no se ha invertido lo suficiente en la seguridad de la IA”, reconoció.

Mason señaló que el gobierno del Reino Unido recientemente comenzó a hablar sobre aumentar la inversión en seguridad de la IA. Parte del problema actual es que la mayor parte de la investigación sobre seguridad de la IA proviene de las propias empresas de IA. Eso es un poco como pedirle a los zorros que cuiden el gallinero.

“Se ha hecho un buen trabajo en materia de seguridad de la IA. Hay investigaciones académicas independientes, pero no se financian como deberían”, reflexionó.


El otro problema existente con la inteligencia artificial es su uso y modelado, que produce resultados sesgados. Todos estos sistemas de IA aprenden de los datos de entrenamiento que se les proporcionan. Si tienes datos sesgados, evidentes o sutiles, los sistemas de IA que construyas sobre esos datos de entrenamiento exhibirán el mismo sesgo.

Tal vez no importe demasiado si un gran minorista vende sus productos a clientes y comete algunos errores debido al sesgo de los datos. Sin embargo, un tribunal que se basa en un sistema de inteligencia artificial para dictar sentencias debe estar muy seguro de que no se trata de datos sesgados, sugirió.

“Lo primero que debemos analizar es qué pueden hacer las empresas. Hay que empezar a analizar los sesgos y los datos, porque si se pierde la confianza de los clientes por este motivo, puede tener un impacto significativo en una empresa”, afirmó Mason. “El siguiente tema es la privacidad y la seguridad de los datos”.

El poder de la IA

Los casos de uso de la capacidad de la IA para ahorrar tiempo, acelerar el análisis de datos y resolver problemas humanos son demasiado numerosos para explicarlos aquí. Sin embargo, Mason ofreció un ejemplo que muestra claramente cómo el uso de la IA puede beneficiar la eficiencia y la economía de costos para hacer las cosas.

La empresa de alimentos y bebidas Mondelez International, cuyas marcas incluyen Oreo, Cadbury, Ritz y otras, recurrió a la inteligencia artificial para desarrollar nuevos y sabrosos snacks.

Para desarrollar esos productos es necesario probar literalmente cientos de ingredientes para elaborar una receta. Luego, se necesitan instrucciones de preparación. Finalmente, catadores humanos expertos intentan determinar los mejores resultados.

Ese proceso es costoso, requiere mucho trabajo y tiempo. Thoughtworks creó un sistema de inteligencia artificial que permite a los desarrolladores de snacks introducir datos sobre recetas anteriores y resultados de catadores expertos.

El resultado final fue una lista generada por IA de 10 nuevas recetas para probar. Oreo podría entonces preparar las 10, dárselas a los catadores humanos nuevamente, obtener la retroalimentación de los expertos y obtener esos 10 nuevos puntos de datos. Finalmente, el programa de IA analizaría todos los resultados y escupiría la mezcla ganadora.

“Descubrimos que este dispositivo podía converger mucho más rápidamente en el perfil de sabor real que Mondelez quería para sus productos y ahorrar literalmente millones de dólares y meses de ciclos de trabajo”, dijo Mason.

Si quieres conocer otros artículos parecidos a La evolución de la IA: cómo afrontar los miedos, los prejuicios, la seguridad y la eficiencia puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir