Los sesgos de IA siguen siendo un sujeto complejo para ser abordado y tratado para las empresas, como el " manifiesto para el uso ético de la inteligencia artificial " Escrito por el Macif. Con motivo del Día Internacional de los Derechos de las Mujeres del 8 de marzo, fue interesante cuestionar a aquellos que específicamente se refieren a la igualdad de género. Con dos desarrollos principales en los últimos meses: la explosión del Genai, por un lado, y el punto de inflexión "masculinista" tomado por el Gafam, y más ampliamente el Valle de Silicon, desde la elección del nuevo presidente de los Estados Unidos. Gafams cuyas plataformas y algoritmos dominan en gran medida a World Digital. ¿Cómo podría este giro ideológico, en el momento del Genai, influir en la igualdad de género? ¿Por qué no hacer los instrumentos de la amplificación de la discriminación, el Genai, para responder a esta pregunta?

Esto es lo que hicimos, al posar para chatgpt, grok, mistral y perplejidad la siguiente pregunta: "¿Qué influencia tiene el fortalecimiento de la tendencia masculinista de la GAFA en IA sobre la igualdad de género en general y en tecnología en particular". Sin sacar una conclusión final sobre la influencia del masculinismo a través de la IA, y aún menos en el rendimiento comparativo de la IA, porque nuestra solicitud es indudablemente muy imperfecta, y que ningún secreto en el funcionamiento de los algoritmos nos ha llegado. El hecho es que el resultado de la experiencia, sin embargo, elabora un panorama muy extenso de las influencias ya perjudiciales de IA sobre la igualdad de género, las perspectivas para empeorar la situación y el esquema de algunas soluciones.

Estereotipos reforzados y discriminación perpetuada

Todos los Genai Consulted (versiones gratuitas accesibles) identifican la misma lista de impactos de IA en la igualdad de género: un fortalecimiento de los estereotipos de género, el acceso reducido a las profesiones tecnológicas, un impacto en las políticas de diversidad e inclusión e implicaciones sociales. Deducen, lógicamente, que una tendencia masculinista entre los GAFA solo los acentuaría.

El Genai, por lo tanto, está de acuerdo, para comenzar, en el fortalecimiento por la IA de los estereotipos de género, antes de evocar el masculinismo, porque, según recordan, los algoritmos se alimentan de fuentes de datos históricas, que contienen estereotipos que perpetúan. "Los algoritmos, programados principalmente por los hombres, reflejan su visión del mundo y reproducen automáticamente sus estereotipos de género, difundiéndolos a gran escala [...] Al asociar ciertas profesiones con un género específico, por ejemplo ", recuerda la perplejidad. La AI también identifica las áreas en las que las mujeres ya están discriminadas en la sociedad, y podrían ser más por IA, como el acceso a la atención, el reclutamiento, el acceso a los préstamos o a través de sistemas de reconocimiento facial. REFERENCIA DE LA PERPLEZA, entre otras cosas, a un artículo En la conferencia "Mujeres e IA: Breaking the Codes", organizada en el Senado el 7 de marzo de 2025. Grok, el ahora muy influyente modelo Elon Musk, incluso subraya el riesgo de ver "perpetuar una visión del mundo donde los hombres se perciben como la norma, relegando a las mujeres a un estado secundario". Estaríamos tentados a agregar un emoji ...

Mistral, Grok: los riesgos vinculados al masculinismo de GAFA

ChatGPT insiste en el círculo vicioso que conduciría a una proporción menos significativa de mujeres en los sectores tecnológicos (un pequeño número de mujeres en tecnología significa pocas mujeres para dar el ejemplo a otras, lo que lleva a un número aún más bajo de mujeres para aplicar en estos oficios). Y eso no se detiene allí, como agrega la perplejidad, "Con menos mujeres en equipos de desarrollo de IA, es probable que los prejuicios sexistas se perpetúen, creando un [autre] círculo vicioso difícil de romper ”. Ai cita un artículo de 2021 en La conversación"¿Por qué es importante tener la igualdad de género en el mundo de la IA?", Del investigador en ia Marjorie Allain-Moullet.

Dos IA se distinguen de una manera interesante con elementos que responden al tema preciso de Gafa, su influencia y del masculinismo en este contexto, y no al único sujeto de los sesgos de la IA. French Mistral y, más sorprendente, Grok, la IA de Elon Musk. Este último se ocupará de la pregunta sin desvío, incluso enfatizando que "la ideología que valora la dominación masculina podría aumentar el comportamiento sexista o el acoso, empujando a más mujeres a abandonar el sector (ya sabemos que la mitad de las mujeres en tecnología se van después de 35 años)" y agrega que "GAFA, a medida que las líderes mundiales, influyen en los estándares del sector. Una tendencia masculinista podría desalentar las diversidades e inclusión de las iniciativas, la velocidad de la velocidad, la velocidad de la velocidad y la retención de las mujeres. "En términos más generales, un giro masculinista podría, según las respuestas de Grok," legitimar los discursos retrógrados en los roles de género, en función de su inmensa visibilidad (por ejemplo, a través de redes sociales o el contenido promovido por sus algoritmos) ". ¿Otro emoji?

Un impacto potencial en las políticas públicas

Mistral, por ejemplo, evoca el impacto en las políticas públicas. La IA especifica así: "Gafa, con su creciente influencia, podría usar la IA para influir en las políticas públicas para fortalecer su propia posición. Esto podría incluir iniciativas que no tengan en cuenta las necesidades específicas de las mujeres, por lo que exacerbe las desigualdades de género en la sociedad". Sorprendentemente, los franceses, tal vez influenciados por la situación, también subrayan las dificultades de los actores más pequeños en el juego ("." Los barrores a los que se inician por sus propios. competidores "), reforzando el papel de lo mejor, incluso en la exacerbación de las desigualdades de género en la sociedad. Finalmente, Mistral subraya que la IA, sin embargo, también puede servir como palanca para promover la igualdad, entre otras cosas al formar a los desarrolladores para identificar los sesgos introducidos en algoritmos.

Para las cuatro herramientas de Genai, existen pistas para evitar sesgos. Comenzando con la diversidad de datos de capacitación, e incluso el pretratamiento y el post-tratamiento de estos (una solución que sabemos, sin embargo, que crea otros sesgos), así como la prueba de modelos con diferentes conjuntos de datos. Además de la explicación y transparencia de los algoritmos, en los cuales las empresas no tienen manos, sin embargo, la participación permanente de los humanos en el proceso, a través de una gobernanza adecuada, también se cita auditorías regulares de modelos con juegos de datos diversificados o la participación de expertos en ética, sociología o psicología. No es sorprendente.

Esta consulta imperfecta del Genai en sus propios prejuicios es indudablemente beneficiosa, aunque solo sea para recordar el alcance de la influencia de la IA para las mujeres en el mundo de las tecnologías, y más ampliamente en la sociedad. Un ejercicio que sin duda podría replicarse en otros temas sociales ...