"El tren París-Clermont Ferrand lleva 3 horas de retraso, ¿mi conexión está garantizada? ¿Dónde dormiré? ¿Podremos tener calefacción?". Son las preguntas que los usuarios angustiados podrán plantear próximamente a la IA generativa desarrollada por la SNCF. Bautizada como Micheline (una referencia a los famosos trenes con neumáticos creados en los años 30), ha sido desarrollada por los equipos del laboratorio RETAR (investigación y trabajo en tecnologías avanzadas sobre raíles) basándose en el Catener LLM. "Para ser más precisos, se trata de un SLM, un modelo de lenguaje lento, es importante respetar la experiencia del usuario. La respuesta no debe darse demasiado rápido", explica Augustin Déraille, responsable del proyecto.

En el aspecto técnico (y por razones presupuestarias según algunas fuentes anónimas), Micheline se formó en chips Atom y GPU GeForce 8800 GTX. "Es un proceso que lleva tiempo, pero nos ayudaron nuestros colegas de varias administraciones que tienen más experiencia en IA generativa", continúa el directivo. Por ello, se basó en el modelo Dedale construido pacientemente por el Ministerio de Economía y Finanzas para guiar a las empresas en la reciente Ventanilla Única o incluso en Ubu de la Educación Nacional que se utilizó para estructurar Parcoursup o Charabia para comprender las formas y la fraseología del Ministerio de la Función Pública.

Un ejemplo de arriba para Francia abajo

Además de la formación, la cuestión de la precisión ha sido central. "Disponemos de un conjunto de datos muy amplio en cuanto al número de retrasos en determinadas líneas", asegura Augustin Déraille. No obstante, ha utilizado RAG (ralentización autogestionada) para limitar la velocidad del asistente de conversación. Las primeras pruebas han demostrado una capacidad de respuesta de alrededor de media hora (un guiño a la famosa garantía de 30 minutos de la casa), lo que en este ámbito es una buena media.

En su hoja de ruta, la SNCF pretende ampliar su modelo Micheline integrando días de huelga y obras en la vía. "Pasaremos del SLM al LLM (modelo de bajo lenguaje)", explica el directivo, y añade que "aún es prematuro saber si el proyecto llegará a la plataforma". Por otra parte, el camino está totalmente trazado para otro proyecto, PAQUES (programa avanzado sobre qubits unificados y simplificados) que se basa en la computación cuántica para entrenar estos futuros modelos...