Para satisfacer las necesidades de las empresas de garantizar la optimización de los modelos de IA que utilizan (tanto LLM como SLM), los proveedores ofrecen cada vez más opciones de personalización (también conocido como ajuste fino). Y esto con el fin de garantizar un mejor rendimiento en términos de capacidades de procesamiento, velocidad de ejecución y control y gestión de los riesgos asociados. Este es el caso de Inteligencia artificial Mistral quien hizo anuncios específicos para intensificar este tema para los desarrolladores que desean ajustar los modelos de código abierto de Mistral en su infraestructura, mediante el lanzamiento de un SDK de Mistral-finetune. "Nuestra base de código está construida sobre el paradigma de entrenamiento de Adaptación de Bajo Rango (LoRA), que proporciona un ajuste fino de alto rendimiento y uso eficiente de la memoria". explicar La puesta en marcha.

Junto con esta base de código, Mistral AI también anuncia servicios de ajuste fino para sus modelos Mistral 7B y Small, que actualmente están disponibles para clientes selectos. “Nuestros servicios de capacitación personalizados implican el ajuste fino de los modelos de IA de Mistral en las aplicaciones específicas de un cliente utilizando sus propios datos. Este enfoque crea modelos altamente especializados que están optimizados para su dominio particular. Ofrecemos técnicas avanzadas como el preentrenamiento continuo para incluir conocimiento propietario en los pesos de los propios modelos”, afirma la startup.