Uno de los puntos fuertes de la IA generativa es su capacidad para integrar, procesar y dar sentido a grandes cantidades de datos. Son capaces de detectar patrones y tendencias entre ellos y luego formalizarlos en informes asimilables a los humanos. Esto acelera el análisis de datos y acorta el tiempo para tomar decisiones informadas. También estamos viendo que cada vez más empresas utilizan esta tecnología para generar código, probar estudios de casos y validar escenarios e hipótesis. Esto lo vemos en particular con las aplicaciones de IA generativa destinadas a crear documentos visuales, vídeos o audio. Incluso los artistas ahora pueden utilizar estas herramientas para impulsar su proceso creativo hacia horizontes insospechados.
Las IA generativas también facilitan la realización de ciertos pasos en el proceso de contratación. Pueden ayudar a los reclutadores desde el inicio del proceso, cuando tienen que redactar una descripción del puesto o un anuncio de oferta de trabajo, o seleccionar los mejores perfiles, basándose en datos disponibles públicamente, como la trayectoria profesional de las personas. presente en LinkedIn.
Por lo tanto, las IA generativas son excelentes herramientas de asistencia para los humanos, que les permiten ahorrar tiempo y recursos. Más que sustituirlos, amplían sus capacidades.
Puras mentiras y respuestas sesgadas
Pero, al igual que los humanos, la IA generativa puede cometer errores y, por tanto, poner en dificultades a sus usuarios. El último ejemplo es el del abogado estadounidense Steven Schwartz que, en mayo de 2023, construyó uno de sus alegatos con jurisprudencia recogida en ChatGPT... que resultaron ser puras invenciones (Leer “Un abogado estadounidense utilizó ChatGPT para prepararse para un juicio... y solo citó fallos falsos”France Inter, martes 30 de mayo de 2023).
En su informeEl Comité Consultivo Nacional de Ética (CCNE) advierte sobre el uso de IA para redactar artículos de prensa, lo que podría “generar desinformación a gran escala”. "En particular, los modelos generativos podrían usarse para obtener una clasificación deseada de contenido malicioso en algoritmos de recomendación en redes sociales o motores de búsqueda, favoreciendo opiniones políticas específicas".
Asimismo, la información obtenida puede estar sesgada. De hecho, ChatGPT y otras IA generativas se entrenan con miles de millones de puntos de datos que pueden contener sesgos que se pueden encontrar en sus respuestas. Además, una IA mal entrenada puede crear una discriminación perjudicial para las empresas, haciéndolas menos competitivas.
Usos sobre datos de empresas: cuidado con la información confidencial
Las IA generativas también pueden provocar la divulgación de datos. En abril de 2023, Samsung descubrió una violación de datos que reveló información confidencial, incluidas actas de reuniones y datos sobre el rendimiento y la productividad de sus instalaciones de producción. Los ingenieros de Samsung utilizaron el chatbot para corregir rápidamente errores en su código fuente, transmitiendo datos que no estaban destinados a ser publicados. Aunque esta infracción no fue intencional, genera preocupación sobre los riesgos del trabajo impulsado por IA.
La IA generativa también puede plagiar una fuente protegida. La agencia fotográfica Getty Images presentó así una denuncia contra Stable Diffusion por no haber dado su autorización para que la IA se entrenara con sus imágenes. A este respecto, la Comisión Europea en sus lineamientos pediría a su personal que “nunca reproduzca directamente los resultados de un modelo generativo de IA en documentos públicos, como cuando se crean textos de la Comisión, en particular aquellos que son legalmente vinculantes”. Por lo tanto, la Comisión consideraría su uso únicamente para fines internos, sin comunicación al público.
Supervisar usos, deconstruir ideas preconcebidas
Ante estos riesgos tan reales, las empresas deben tomar medidas para monitorear y regular el contenido generado.
Esta vigilancia implica en particular:
- Recopilar comentarios de los empleados a través de encuestas;
- La formación de un equipo y de empleados dedicados;
- Comparación del contenido producido por humanos con el de la IA generativa;
- Implementación de indicadores clave de desempeño;
- Restringir el acceso de los empleados a la IA generativa en el contexto de su trabajo; Apple, Verizon e incluso JPMorgan han optado por prohibir simplemente el uso de ChatGPT a sus empleados para evitar cualquier filtración de información. Por su parte, Samsung está desarrollando una alternativa a ChatGPT.
- Respeto por una ética común en el diseño. El Comité Consultivo Nacional de Ética recuerda que la IA no debe sustituir a los humanos. Además, los diseñadores de un sistema de IA generativa deben analizar, durante la fase de diseño, cada una de las opciones tecnológicas que puedan provocar tensiones éticas. La cuestión de la verdad surge así porque “la falta de evaluación del valor de la verdad (...) puede conducir a la producción de desinformación. Cuestiona la responsabilidad de los diseñadores y nuestra relación con la ética de la verdad”. Una propuesta de reglamento iniciada en 2021 por la Comisión Europea, luego modificada y votada por el Parlamento Europeo en junio de 2023, tiene como objetivo precisamente "imponer una responsabilidad significativa a todos los fabricantes de modelos de cimientos que los comercializan o los publican en libre acceso". Si se adopta definitivamente la AI Act*, será una primera respuesta a las cuestiones éticas que han surgido desde el desarrollo de un software accesible a todos.
En breve, 3 ideas preconcebidas para deconstruir cuando se utiliza IA generativa en los negocios:
1 - El contenido generado es sistemáticamente correcto. : Sucede con más frecuencia de lo que cree que las herramientas de IA generativa brindan respuestas inexactas. Lo principal es entonces recordar evaluar la exactitud y relevancia de los resultados obtenidos antes de utilizar esta información como referencia y compartirla interna o externamente.
2 - El contenido generado siempre demuestra lógica. : la generación de contenidos por parte de la IA a veces puede ser impredecible, y su toma de decisiones o su lógica no siempre son inteligibles. Por lo tanto, se debe tener cuidado de comprender el razonamiento del resultado obtenido y realizar las modificaciones necesarias.
3 - El contenido generado no contiene ningún sesgo : Las herramientas de IA generativa a veces ingieren datos subjetivos que pueden distorsionar los resultados obtenidos. Entonces es esencial implementar regulaciones para detectar cualquier resultado sesgado y hacerlos cumplir con la ley y las políticas de la empresa.
*: Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (legislación sobre inteligencia artificial) y se modifican determinados actos legislativos de la Unión.
Otras noticias que te pueden interesar