El 21 de mayo, el gigante farmacéutico francés Sanofi anunció una asociación con OpenAI y Formation Bio. Si bien el primero es la estrella entre las estrellas de la IA generativa con ChatGPT, el segundo es un nuevo tipo de laboratorio. Esta start-up, fundada en 2016 y cuyo inversor no es otro que el fundador de Open AI, Sam Altman, está trabajando en nuevas moléculas, únicamente a partir de datos, LLM, IA en general y otras tecnologías. El anuncio de esta colaboración se inscribe en la estrategia cada vez más activa de Sanofi en torno a la inteligencia artificial.
Sin embargo, en un ámbito tan sensible y tan cuestionado desde el punto de vista ético como la salud, el industrial no puede ignorar una política adaptada a sus proyectos de IA. Sobre todo porque, además del sector industrial de la empresa, la inteligencia artificial en todas sus formas conlleva sus propias preocupaciones éticas: explotación de datos sensibles o personales, sesgos, alucinaciones, falta de transparencia, etc.
Precisamente este es el tema que la responsable de la estrategia global de datos e inteligencia artificial de Sanofi, Yasmine Zaimi, y Cédric Verschueren, director de ética e integridad empresarial Benelux, también director de gobernanza de innovación responsable, trataron en la feria Vivatech el 22 de mayo. Solo el 42% de las empresas con más de 100 empleados se han embarcado en proyectos de inteligencia artificial, según un estudio encargado por IBM en enero de 2024, explicaron. "Y el tercer obstáculo más citado es precisamente la preocupación relacionada con la ética", precisó Yasmine Zaimi, refiriéndose a esta encuesta. Los otros dos obstáculos más citados en el estudio, por delante de la ética, fueron la falta de competencias y la complejidad de los datos.
Fuerte crecimiento de los “incidentes” relacionados con la IA desde 2022
Estos temores están justificados, como explica Cédric Verschueren con cifras y ejemplos, esta vez apoyándose en el informe AI index 2024 del Human-centered AI Institute (HAI) de la Universidad de Stanford en California. "El número de incidentes relacionados con la IA aumentó un 32% entre 2022 y 2023". [autrement dit, depuis l'arrivée de l'IA générative, NDLR]. Y desde 2013, simplemente se han multiplicado por 10". Entre los más notables en el mundo de la salud, el provocado por un algoritmo basado en reglas utilizado por Stanford en diciembre de 2020 para seleccionar a los empleados que se vacunarían prioritariamente contra el Covid19. La exclusión de los cuidadores, que están en contacto directo con los pacientes, en los resultados reveló un fallo en el algoritmo. Discriminaba a ciertas personas simplemente en función de su edad o antigüedad en su puesto.
Otro incidente destacable es la importación de sesgos raciales, sociales, económicos o socioeconómicos a través de los datos de entrenamiento. Los investigadores han comprobado la presencia de estos en modelos de datos destinados a algoritmos de clasificación de rayos X, por ejemplo, que se utilizan para identificar fracturas, por no hablar de correlaciones que no tienen sentido o incluso de jailbreaking, que consiste en desviar el uso de una IA generativa, por ejemplo, y potencialmente generar información dañina o revelar información sensible.
Una cuestión de equilibrio
Yasmine Zaimi recordó la ambición de Sanofi, la misma que se refleja en la asociación con OpenAI y Formation Bio: convertirse en nada menos que la primera empresa biofarmacéutica impulsada por IA a gran escala. "Para lograrlo, utilizaremos tecnologías como el aprendizaje activo". [sélection intelligente des échantillons les plus pertinents pour l'annotation des données nécessaires à l'entraînement de modèles de machine learning] "Para identificar y comprender mejor las enfermedades, mejorando la identificación de objetivos y el proceso de investigación. Y al final de la cadena, ya tenemos IA que optimiza la producción, en función de las materias primas disponibles en un sitio de fabricación". La IA también ayuda simplemente a los fabricantes a adaptarse a la creciente demanda sin aumentar sus costos proporcionalmente. "Además, es una tecnología escalable que puede transformar procesos enteros, generar contenido en masa, etc."
Yasmine Zaimi, responsable de la estrategia global de datos e inteligencia artificial, y Cédric Verschueren, director de ética empresarial e integridad en Benelux y director de gobernanza de la innovación responsable, en Vivatech 2024. (Foto ED)
Precisamente porque la IA abre tantas oportunidades para Sanofi, Yasmine Zaimi recordó los riesgos que existen para el fabricante si no tiene en cuenta las cuestiones éticas asociadas. Al igual que ocurre con los grandes riesgos financieros o medioambientales, "se trata de encontrar un equilibrio entre la capacidad de seguir nuestra estrategia de innovación y minimizar los riesgos asociados", resumió. "Sin embargo, el riesgo depende de la parte de la cadena de valor en la que se incluye el caso de uso", precisó Cédric Verschueren. "Sobre todo para una empresa farmacéutica como la nuestra, presente en toda esta cadena de valor, desde la investigación hasta el desarrollo, la fabricación, la cadena de suministro, las actividades comerciales, etc."
Una política ética de cinco pilares
Por ello, no es de extrañar que Sanofi haya decidido adoptar un enfoque basado en el riesgo. Bautizado como RAISE (Responsible AI @ Sanofi), se basa en cinco pilares. El pilar principal consiste en que el fabricante asuma su responsabilidad por los resultados de un tratamiento de IA a lo largo de su ciclo de vida: diseño, desarrollo, implementación y uso. Los otros cuatro pilares asociados son la solidez y la seguridad, la equidad y la ética, la transparencia y la claridad y, por último, la ecorresponsabilidad. "Sin olvidar que la decisión final siempre recae en la persona implicada en el proceso", asegura Cédric Verschuren.
La privacidad de los datos es un tema central, y los modelos de entrenamiento básicos para los modelos de IA contienen información personal y sensible sobre los pacientes que han dado su consentimiento. “En lo que respecta a la privacidad, hay un equilibrio”, insiste Verschuren. “No hay duda de que se necesitan datos de los pacientes para entrenar algoritmos. Pero deben protegerse y no almacenarse”. La equidad implica definir modelos de IA completos e inclusivos que funcionen para todos los pacientes. Esto requiere los conjuntos de datos de entrenamiento más grandes posibles. Por último, la explicabilidad implica comprender en detalle lo que subyace a una decisión propuesta por la IA.
Órganos de organización y control
Hace apenas un año, en abril de 2023, Sanofi empezó creando un grupo de trabajo interdisciplinario sobre IA responsable. Integrado por expertos en derecho, confidencialidad, compras, ética, política y ciberseguridad, pero también en IA y datos, definió la visión y la política interna del grupo en este ámbito. A finales de 2023, se creó un comité de gobernanza de la IA responsable que, entre otras cosas, redactó y distribuyó un documento de política interna a toda la empresa. Este trabajo implicó a toda la empresa con el apoyo de mecanismos de formación, comunicación y aculturación. "La IA responsable no es un tema puramente digital", recuerda Yasmine Zaimi. "Es un tema sociotécnico. Necesitamos involucrar la ética, la ciberseguridad, la RSE, etc."
A partir de los enfoques y la organización validados en 2023, en febrero de 2024 se puso en marcha una formación en IA responsable y un enfoque global de evaluación de los riesgos relacionados con la IA. Sin olvidar la integración del enfoque RAISE en el código de conducta de la empresa. Para Cédric Verschuren, también es esencial establecer prioridades para gestionar rigurosamente los controles de un sistema de IA, en función del nivel de riesgo asociado a él. Por ello, la empresa está desarrollando métodos para identificar este grado de asunción de riesgos, en función de los proyectos. Una delicada cuestión de equilibrio.
Otras noticias que te pueden interesar