A finales de 2021, la IA generativa ha entrado con fuerza en nuestra vida cotidiana y se está infiltrando rápidamente en nuestros entornos de trabajo. ¿Qué sentido tiene colaborar con este nuevo colega y con todos los demás tipos de IA? ¿Cómo influirá este fenómeno en nuestros métodos de trabajo, en nuestra organización? En el marco de una velada de Grand Théma el 19 de marzo, CIO y Le Monde Informatique invitaron a Laurence Devillers (leer el recuadro) a responder a estas preguntas. La investigadora en IA, especialista en el procesamiento del lenguaje y en las interacciones entre la IA y los humanos, también está muy involucrada en las cuestiones éticas asociadas. Es autora de numerosos libros, entre ellos "Des robots et des hommes" y "Les robots émotions".

Vea la entrevista con Laurence Devillers en vídeo

Con nosotros, repasó la historia de la IA, y en particular de las redes neuronales. Un recorrido progresivo de más de 80 años, que comenzó con el intento de modelar una neurona en nuestro cerebro por parte de los neurocientíficos estadounidenses Warren McCulloch y Walter Pitts y llegó hasta la IA generativa actual. Una evolución que fue posible gracias a la disponibilidad de corpus de datos cada vez más grandes y a las capacidades de computación. La investigadora habló de sus propios trabajos sobre el procesamiento automático del lenguaje y el reconocimiento del habla, que la llevaron hacia la "computación afectiva", es decir, la detección de emociones en las relaciones entre humanos y máquinas y las cuestiones éticas asociadas.

Porque una de las características de la IA es que tiene, en apariencia, todo de humano. Ilusión... Incluso en lo que se refiere a la IA generativa, que llena un vacío importante, el de la semántica, Laurence Devillers recordó que "no tiene nada de pensamiento, ni de intención, ni de emoción". Una afirmación aplicable a toda la IA. Este conjunto de tecnologías sigue siendo un mecanismo, por muy complejo que se haya vuelto. Entonces, ¿qué impacto tiene en el trabajo? "La IA generativa reduce la distancia entre el humano y la máquina", precisó la investigadora. Sin embargo, seguimos en un juego de imitación. "LLM acumula datos textuales deshumanizados, recordó. No están centrados en un cuerpo con un contexto de vida. No tienen contexto espacial o temporal".

"Una máquina extremadamente poderosa que no entiende lo que hace"

La investigadora también planteó las numerosas cuestiones éticas asociadas a la IA, ya se trate de los sesgos que crea y los métodos cuestionables utilizados para corregirlos, la falta de transparencia de los algoritmos o la dificultad de acceder a las fuentes de información utilizadas para entrenarla. "La IA es una máquina extremadamente poderosa, pero no entiende lo que hace", insistió Laurence Devillers. En el mundo del trabajo, por ejemplo, será esencial cocrear con expertos en las tareas solicitadas, y transferir sus conocimientos y experiencia a los recién llegados, para que sigan desafiando a las máquinas.

Un tema central, sobre todo porque los próximos avances podrían aumentar aún más la confusión sobre la "humanidad" de la IA. Para el investigador, deberíamos entrar en una era de sistemas multimodales que se alimentan de señales visuales, auditivas, lingüísticas, contextuales, etc. La oportunidad para Laurence Devillers de concluir el encuentro con un consejo de Blaise Pascal. El autor de Pensées, pero también inventor de la Pascalina, nos recordó que debemos "actuar con razón en lo incierto".