No hay duda de que el MACIF presente sin la IA que el sector de seguros en su conjunto ya ha comenzado a explotar. Sin embargo, el mutuo considera que "no puede tratar esta tecnología como una herramienta ordinaria, ya que potencialmente tensará su marco de valor". Con motivo de la cumbre para la acción sobre la IA, que se celebró en París durante una semana desde el 6 de febrero, la compañía quería informar sus preocupaciones sobre lo que considera como "peligros importantes para los valores que defiende de manera asertiva y constante: inclusión, solidaridad y lucha contra la discriminación, en particular".

La oportunidad también de compartir los pasos que ha tomado para tratar de conciliar el uso de IA y comportamiento ético. El mutuo ha escrito un " manifiesto para el uso ético de la inteligencia artificial [...] Quién será cuestionado y evolucionado regularmente en el futuro ", dijo en un comunicado, y ha establecido una organización y un gobierno para traducir concretamente las ambiciones de este manifiesto e integrar la ética en la gestión de su estrategia de IA. El Macif explica que" quería que precediera a la acción y precediera a la acción y a [...] que se establece un marco político para sacar y hacer crecer los usos futuros que hará de la IA ”.

Un proceso iterativo de 5 pasos

En la práctica, la compañía de seguros mutuos ha imaginado un proceso iterativo de desarrollo y control de los sistemas de IA en cinco fases: evaluación previa de riesgos, diseño, desarrollo y prueba, implementación, control, una vez que se ha implementado el sistema. Con una gobernanza que se basa en tres organismos internos: el Comité de Gestión, el Comité Mixto de Gobernanza Digital y un grupo de trabajo especialmente creado para AI llamado GT -A. Este último "recopila las necesidades de los usuarios potenciales de los sistemas de IA, el análisis, lo convierte en un enfoque crítico, sigue el diseño, desarrollo y control de los sistemas [...] ». También es responsable del mapeo de todas las iniciativas de IA mutua. El Comité Conjunto de Gobernanza Digital, que reúne a técnicos y administradores del Macif, puede cuestionar la ética de un sistema de IA en la fase de diseño o cuando ya está implementado. Finalmente, el comité de gestión establece las ambiciones estratégicas y los límites del uso de la IA en la empresa, las prioridades de uso y la responsabilidad de desplegar o decodificar un sistema después de una instrucción ética del comité mixto.

Para estimar el impacto potencial de sus sistemas de IA en este proceso, el MACIF lleva a la división en tres componentes del ESG: social, ambiental y social. "Los equipos a cargo del desarrollo de los sistemas AI se hacen así, con el apoyo del GT -A, para cuestionar las tres dimensiones", dijo el Manifesto MACIF. Para el componente social, tendrán que documentar "el objetivo, los usuarios objetivo, las partes interesadas, las ganancias esperadas y los posibles efectos dañinos". En términos de impacto ambiental, los diseñadores de sistemas IA tendrán que justificar el uso de las tecnologías del mercado, medir la relación entre su huella ambiental y la ganancia dirigida y estudiar alternativas más convencionales y frugales. En el caso de los desarrollos internos, los equipos de TI deberán asegurarse de minimizar el impacto desde el principio. Vigilancia particular solicitada por el mutuo para el Genai, cuyo consumo de recursos excede, con mucho, el de otras tecnologías.

Impactos del seguro, el mundo mutualista y el Macif

Finalmente, en términos de impacto social, el equipo de diseño "documentará las articulaciones planificadas de la máquina humana" identificando a las partes interesadas internas en la que la IA podría tener un impacto negativo, y para el Genai, documentará los riesgos de una alineación accidental de una alineación accidental de los objetivos o de uso desviado por los humanos ", en particular en el caso en el caso de que el sistema lo haga posible" abusivo "o la producción de resultados tóxicos o viciados". Sin embargo, el manifiesto no tiene en cuenta, mientras lo hace para el impacto ambiental, el impacto de las tecnologías generativas de IA en la sociedad. Finalmente, sistemáticamente, para cada uno de los tres componentes, los equipos de diseño de sistemas también deberán "describir las medidas de remediación o minimización previstas".

Para el MACIF, el objetivo de su manifiesto para una IA ética es desarrollar una "fuerte responsabilidad de los técnicos a cargo de este tema, un cuestionamiento permanente de los méritos del uso de IA en lugar de otras tecnologías, un aspecto múltiple y complementario, tanto técnico como político, en los casos de uso, los principios de la Jurisprudencia como no exhaustiva de todos los proyectos e implementación de la IA". Por esta razón, antes de enumerar los desafíos éticos de la IA, el documento describe las tecnologías y el contexto en detalle. Un pasaje esencial, incluso si está ampliamente popularizado, para apoyar la reflexión ética y el estado de alerta adecuado.

¿Es AI compatible con valores mutuales?

En su manifiesto, el MACIF funciona en embudo. Comienza desde todo el sector de seguros, luego desciende al mundo de los mutuos antes de centrarse en su caso específico. El sector de seguros solo "inicia su muda", insiste en el documento, con un interés privilegiado en el reconocimiento, procesamiento y generación de lenguaje, modelado de datos, predicción de tendencias, procesamiento de contenido de cualquier formato y toma de decisiones automatizada. El MACIF enumera varias derivaciones posibles, como "la exclusión de las personas más expuestas o frágiles debido al precio prohibitivo de los productos de seguros en ciertos micro segmentos". Sin embargo, el mutualismo, por su propia naturaleza, está aún más expuesto a posibles derivaciones de este tipo de IA. "La visión política llevada por el mutualismo es, por lo tanto, la del seguro más accesible e inclusivo posible, la protección de todos atiende a la libertad de cada uno dentro de la sociedad". El Macif teme, por ejemplo, la propuesta de la IA de "políticas de privación que ofrecen precios ventajosos con menos vulnerables". Pero, por el contrario, un conocimiento más fino, incluso casi individualizado de los riesgos involucrados por los miembros, gracias al "procesamiento de datos de sensores, datos de comportamiento de consumo, datos de datos abiertos públicos, etc., puede verse como una oportunidad cuando se le da al servicio de una mejor prevención de estos riesgos". El manifiesto también subraya la importancia del uso razonado de datos personales en esta ocasión.

Debido a que la respuesta a tales problemas está lejos de ser solo técnica, el MACIF también invoca nociones filosóficas de ética, como la justicia, por ejemplo. La discriminación algorítmica potencialmente inducida por la IA "está construida y ubicada principalmente, es decir, relacionada con los modelos de justicia existentes en contextos sociohistóricos dados: ¿qué se reconoce como justo o inequitativo depende del punto de vista adoptado? semejante. Solo hay concepciones particulares de lo que es justo, justo, responsable, unido, dependiendo del caso de usos y audiencias ". En otras palabras, las empresas que desarrollan y usan IA deben arbitrar entre" diferentes posibilidades del tratamiento algorítmico al movilizar las teorías de la justicia consideradas apropiadas para atender sus intenciones políticas y estratégicas, luego realizar el Criterio Extraqunical. »»

Sesgos, explicación, auditorabilidad de algoritmos

Entre los peligros éticos vinculados a la IA, lo mutuo describe en los sesgos detallados: sesgos conscientes o inconscientes del comportamiento humano, sesgos metodológicos, sesgos de comportamiento del usuario (que pueden resaltar, voluntariamente o no, sesgos que no existían en el algoritmo original), etc. Otro problema importante para garantizar la conformidad de una IA a los valores de una organización: las explicaciones de los sistemas. Un problema aún más central como la transparencia de los actores de IA no es su calidad principal. En los sistemas de aprendizaje profundo, las reglas inferidas de los datos son "difícil, si todos, interpretadas por los humanos". La mutua planea dos pistas para anular. La explotación de las tecnologías interpretables de inteligencia artificial, construidas con un número reducido de parámetros, primero. La segunda forma, bastante sorprendente, sería "construir un posteriori una explicación suficientemente satisfactoria para el funcionamiento de un sistema opaco". La explicación de la IA también se refiere a su auditoría y comprende su comportamiento para preservar la capacidad de controlar estas herramientas por parte de los humanos. Como era de esperar, el MACIF señala la necesidad de prestar especial atención a los modelos fundamentales para el uso general del Genai, cuya opacidad compite con su efectividad.

Finalmente, para tratar la ética de la IA dentro de su organización, el MACIF ha establecido una gobernanza digital en la encrucijada de tres elementos: regulación digital, gobernanza digital en empresas y ética digital. LA Mutuelle estudia los sujetos de ética de acuerdo con los problemas relacionados con sus usos reales, y analiza las diferentes opciones de diseño y uso que se le ofrecen, así como su impacto potencial. "This ethical analysis mobilizes in a complementary way three types of reasoning", starting by taking into account "known or anticipated effects of the use of systems in organizational, economic, strategic, political and societal terms" and "the advantages of AI systems for the MACIF" in terms of operational performance, quality of service ", for example, or" the impact on the evolution of insurance professions ". Then, taking into account the regulations and standards of the profession as well as the evaluation Criterios específicos para el MACIF, como la alineación con los estándares y estándares de la profesión o la contribución real de los nuevos servicios a los empleados o clientes.

Salud, un sector que toma AI

La salud es un sector que ya ha integrado mucho la IA, mucho antes de la llegada del Genai, en particular a través del análisis de radiografías, escáneres o resonancia magnética para la investigación o incluso la asistencia de diagnóstico en tiempo real. Empujados entre otros por la Ley de IA, algunos actores en el campo buscan preservar el comportamiento ético, a pesar de la explotación de estas soluciones. Seguro de salud así publicado a fines de enero su política de uso de AIEsencialmente construida en torno a la definición de acto europeo de IA y apego a las reglas del ESG. Sin embargo, esto no evitó que el CNAM fuera arrestado por la cuadratura de la red, MediaPart y Amnistía Internacional por su calificación algorítmica considerada discriminatoria del asegurado. El impacto del fondo mutuo de la mutualidad francesa y el MGEN invirtió el año pasado en Ethik AI, un joven disparo que trabaja en el desarrollo de un método de supervisión humana de IA, en "Principios de regulación aguas arriba y aguas abajo del algoritmo".

El enfoque de Macif aparece por una escala completamente diferente. Queda por medir los resultados. ¿Cómo reconciliará el largo tiempo de un análisis ético y gestión con la urgencia de la innovación tecnológica frente a la presión competitiva? ¿Qué habilidades movilizarán en los sujetos como complejos y opuestos como la ética y las tecnologías IA? ¿Qué herramientas y métodos pretenden implementar para tratar los sesgos, por ejemplo? Hasta la fecha, el MACID no ha respondido a nuestras preguntas sobre estos temas.