Difícil implementar la IA generativa sin cuestionar, aguas arriba, sobre las preguntas éticas que plantea. El sujeto es particularmente importante en actividades fuertemente reguladas o con fuertes requisitos de equidad y transparencia. Como es el caso del trabajo de Francia. Recibido como parte del programa Grand Théma, su director asociado a cargo del programa de datos e IA, Sylvain Poirier detalló cómo usa el ex Pôle Emploi, pero también supervisa esta tecnología prometedora en su actividad.
"Los datos y la IA en el trabajo de Francia no son nuevos. Hemos estado invirtiendo sobre este tema durante 10 años", dijo de inmediato. En particular, a través de un datos de datos y un programa centrado en AI y llamado Intelligence Emploi, con los primeros servicios disponibles de 2022, como un análisis CV o un servicio que verifica el cumplimiento de las ofertas de trabajo. "Esto nos permitió temprano las bases para desarrollar servicios de IA, con una plataforma que garantiza su desarrollo en un marco seguro y de acuerdo con las regulaciones. Y también tenemos una carta ética, que es nuestra brújula en cualquier proyecto de IA", dice el gerente. Con el deseo mostrado de desarrollar herramientas al servicio de los asesores, respetar los requisitos de seguridad, la equidad del tratamiento o incluso explicar los algoritmos. Todo es monitoreado por un comité externo, "tener una visión externa de los servicios de IA que desarrollamos", dice Sylvain Poirier.
Chatft y Matchft: Primeras aplicaciones concretas
¿Pero este marco sigue siendo relevante con la IA generativa, en esencia no determinista? "Cuando ChatGPT llegó en 2022, identificamos un interés en la tecnología y creamos un programa de datos y IA, que se remonta a hace solo un año", dijo el director asociado de Francia. "Salimos del campo, asesores, para identificar irritantes y necesidades", dijo. El trabajo de Francia luego identificó tres campos experimentales principales: la ganancia en la eficiencia de los asesores, para que realmente puedan movilizar su experiencia al servicio de solicitantes de empleo; simplificación del acceso a herramientas y datos en un panorama de aplicaciones complejo; Y, finalmente, la creación de servicios innovadores para repensar la experiencia de los usuarios.
Sylvain Poirier, director asociado a cargo de los datos y el programa IA del trabajo de Francia: "Siempre que se proponga una nueva idea, una variación de la carta ética nos permite identificar los puntos que se asegurarán".
Mire el programa dedicado a los desafíos éticos de la IA
Que dio a luz a dos proyectos importantes. El primero, Chatft, que permite a los asesores requerir las bases documentales. Hasta la fecha, según Sylvain Poirier, más de 30,000 agentes, si la mitad de esta población, ya usan este asistente. El segundo, Matchft, que se está probando actualmente en dos regiones, es una herramienta integrada para el entorno de asesores comerciales y tiene como objetivo facilitar la precalificación de los solicitantes de empleo en respuesta a una oferta. "Esta IA irá y verificará, con el candidato, un cierto número de requisitos previos asociados con la oferta: su interés, su disponibilidad, su movilidad, etc.", detalla Sylvain Poirier.
"No hay cuestión de lanzar cientos de prototipos"
Estas primeras aplicaciones se basan en un enfoque de RAG, con bases de datos implementadas en la infraestructura de trabajo de Francia. "Y, cada vez que se propone una nueva idea, una variación de la carta ética nos permite identificar los puntos a asegurar, el trabajo que se llevará a cabo con el equipo RGPD y los riesgos asociados", dice el gerente.
También del MGEN, la IA generativa se identificó rápidamente como un tema de interés. "En 2024, pagamos por ver, al instalar bases, comenzamos a trabajar en prototipos con las profesiones. Pero hemos elegido ser selectivos para llegar a la producción", dice Arnaud Méjean, DSI del director mutuo y gerente de Gie Mgen Technologies. "No hay cuestión de lanzar cientos de prototipos", dice el CIO. Por lo tanto, el valor de la aplicación potencial se cuestiona sistemáticamente, al igual que la calidad y la disponibilidad de los datos en los que se basa esta aplicación.
Arnaud Méjean, DSI del Director Mutual y Gerente de Gie Mgen Technologies: "Hemos trabajado mucho en la calidad de los datos".
Y estas primeras aplicaciones se basan en una infraestructura que el MGEN quería dominar, a través de un acuerdo con SENS, la co -entprise entre Thales y Google. "Cuando usemos nuestros conjuntos de datos, permanecerán dentro de este entorno seguro", dice el CIO. También hemos trabajado mucho en la calidad de los datos y hemos comenzado a transformarnos a través de la creación de un laboratorio de IA que acompaña a las profesiones. Con los usos de hoy dentro del CIO, en desarrollo y boletos. La compañía de seguros mutuos, que recientemente ganó la renovación del mercado nacional de educación, también está implementando chatbots "que permitirá a los agentes o clientes tener las primeras respuestas, antes de una discusión", subraya Arnaud Méjean.
Un papel extendido para el DPO de MGEN
Pero estas aplicaciones obviamente necesitarán un marco operativo estricto, especialmente dada la naturaleza de la información que manipula una mutua. "Anticipamos actos de IA comenzando a trabajar en este tema desde 2023", enfatiza Béatrice Cateaux, el DPO (Oficial de Protección de Datos) de MGEN. Hemos decidido capitalizar lo que se había hecho para el GDPR y actualizar nuestro sistema y nuestro gobierno de datos, especialmente personal. Concretamente, hoy, ya tenemos un método de clasificación de IA, de acuerdo con el texto. Para nosotros, este enfoque de riesgo es clave, porque le permite asegurar la IA sin ralentizar la innovación. »»
Béatrice Cateaux, el DPO de MGen: "Uno de los puntos clave es garantizar la calidad de los datos, para no conducir a la discriminación o amplificar las desigualdades".
Dentro de la compañía de seguros mutuos que pertenece al grupo VYV, el sujeto ha cambiado la función de DPO. "Mi perímetro se ha expandido", dice Béatrice Cateaux, quien ahora administra el cumplimiento y los aspectos éticos de la IA. Este último indica, en particular, monitorear el riesgo vinculado a la privacidad de los miembros y aquellos asociados con la sensación de pérdida de control sobre sus datos que el asegurado puede vivir. Los sujetos que preexistieron, pero que se amplifican como procesamiento de datos se multiplican y que este último se refiere a aumentar la información constante. "Y nuestro RSSI es, por su parte, garante del hecho de que la seguridad está a bordo del diseño de la IA", agrega Arnaud Méjean.
"Uno de los puntos clave es garantizar la calidad de los datos, para no conducir a la discriminación o amplificar las desigualdades. E introducir el control humano, cuando sea necesario, lo que depende del impacto que la IA puede tener en nuestros miembros, subraya Béatrice Cateaux. Tratamos de tener un enfoque graduado que consiste en poner frente a un riesgo de control adecuado de control.
Otras noticias que te pueden interesar