La inteligencia artificial une a las personas. Este 5 de diciembre, en la Escuela Normal Superior del 5mi En el distrito de París, un cierto número de actores del ecosistema de la IA se reunieron para discutir los últimos avances en la inteligencia artificial y sus implicaciones éticas. “¿Cuáles son los riesgos que plantean los últimos avances en IA? ¿Hasta qué punto la IA encaja en la rivalidad tecnológica e industrial entre las grandes potencias? ¿Cómo puede la Unión Europea entrar en la carrera por la IA sin descuidar la regulación para proteger a las sociedades, en particular frente al riesgo de desinformación? ". Tantas preguntas a las que un panel de investigadores, profesores y personalidades relacionadas con el ecosistema de IA intentaron dar una respuesta inicial.

Para la ocasión estuvieron presentes Anne Bouverot, presidenta del consejo de administración de la Fundación ENS & Abeona, Marc Mézard, profesor de la Universidad Bocconi (con sede en Milán), así como Jamal Atif, profesor de IA en la Universidad de París-Dauphine. . También participaron Yann Le Cun, investigador de IA en Meta, así como Martin Tisné, director de AI Collaborative, Omidyar Group Foundation. Durante el evento se hizo un anuncio clave: la creación de un instituto de IA y Sociedad. Fruto de la fusión entre la Fundación Abeona, la Escuela Normal Superior-PSL y la Universidad París-Dauphine-PSL, este instituto debe “contribuir a crear un entorno propicio para la innovación responsable”.

Índice
  1. “Investigar, formar, informar e influir”
  2. Una tecnología que merece un marco de reflexión

“Investigar, formar, informar e influir”

La misión del instituto será “investigar, formar, informar e influir en el desarrollo de una IA responsable”, afirma Anne Bouverot, en particular a través de los siguientes puntos: investigación sobre los impactos sociales y económicos de la IA, reflexión sobre las políticas públicas y la geopolítica. de la IA, el compromiso y la participación en el debate público, así como la sensibilización y la formación. En esta etapa también se han definido cuatro áreas principales de investigación sobre el impacto de la IA: “IA y justicia social”, “IA y el futuro del trabajo”, “robustez y seguridad de la 'IA', 'lenguaje, imágenes y desinformación'. en la era de la IA generativa". Para afianzarse en el ecosistema de la IA y, más en general, en el ámbito tecnológico, el instituto prevé reunir a actores del mundo de la tecnología, la empresa, la sociedad civil y el mundo académico. Al hacerlo, los miembros de este instituto quieren construir un espacio único que permita comprender mejor los riesgos y oportunidades de la IA. “Lo que veo es la llegada de la IA como una extensión de la tecnología digital pero que se está desarrollando a una velocidad nunca antes vista. Es un fenómeno radicalmente nuevo”, explica Marc Mézard.

“Todos nos hacemos preguntas sobre los riesgos a corto y largo plazo de esta tecnología y la multitud de posibles casos de uso”, recuerda Anne Bouverot. “La IA en sí misma no trae desgracias, es su uso lo que plantea dudas. Debemos regular los usos”, añade Jamal Atif. Y Yann Le Cun continúa: “Algunas personas temen que la IA represente un riesgo demasiado grande en comparación con los beneficios potenciales”. Cuando se le pregunta qué es la IA responsable, el director de investigación fundamental sobre inteligencia artificial del grupo Meta bromea: “¿Qué es la IA irresponsable? ". Según él, toda tecnología es un compromiso entre sus lados buenos y malos. Para ilustrar sus palabras, no duda en multiplicar las analogías, tomando el ejemplo del automóvil, pero también de la aviación o incluso de la imprenta. “Cómo ¿Quién debe decidir? Este es el papel de los políticos y de los gobiernos. Corresponde al proceso democrático hacerlo”, continúa Yann Le Cun. Tampoco duda en resaltar las ventajas del código abierto. para la inteligencia artificial: "En el futuro, tendremos asistentes inteligentes que serán incluso más inteligentes que las personas en ciertas áreas. Tenemos que acostumbrarnos a esta idea, amplificará la inteligencia de todos". Sin embargo, estas interacciones con estos sistemas no deberían acabar en manos de "dos o tres empresas de la costa oeste, eso no es bueno para la democracia". Estas plataformas deben ser abiertas", insiste.

Una tecnología que merece un marco de reflexión

Naturalmente, el nombre del instituto – IA y sociedad – muestra un deseo real de integrar esta tecnología en nuestra sociedad. “Es una tecnología de usos múltiples y al mismo tiempo existe esta interfaz y esta capacidad de generar texto estadísticamente. Es muy específico. Por tanto, es necesario un marco de reflexión”, afirma Anne Bouverot. Para gestionar este instituto, se creó un comité directivo, copresidido por Anne Bouverot y Marc Mézard. Personalidades del ecosistema ya se han sumado a la organización, como Jamal Atif (profesor, vicepresidente de la Universidad Paris Dauphine – PSL), Laurent Daudet (co-CEO y cofundador de LightOn), Carly Kind (directora de Ada Lovelace Institute), Xavier Lazarus - socio director y cofundador de Elaia, Yann Le Cun (investigador de IA en Meta), Tanya Perelmuter (cofundadora de la Fundación Abeona), Gabriel Peyré (director del Centro de Ciencia de Datos de ENS), Isabelle Ryl (director, PRAIRIE / Paris School of AI), así como Martin Tisné (director AI Collaborative, Omidyar Group Foundation). Finalmente, sin dar más detalles, se precisó que el instituto será financiado tanto con fondos públicos como privados.