OVH no quiere compensar la artillería pesada en términos de infraestructura de los gigantes AWS, Microsoft o incluso Google Cloud para soportar cargas de trabajo de IA. El proveedor de Roubais ha anunciado la llegada de servidores dedicados bare metal con aceleradores GPU Nvidia L40S para satisfacer necesidades como el aprendizaje automático, el aprendizaje profundo o el despliegue de modelos LLM. Estas instancias, denominadas HGR-AI-2, estarán disponibles antes de finales de junio de 2024. Según OVHcloud, “aprovecharán la potencia del L40S, que se beneficia de la cuarta generación de Tensor Cores y Transformer Engine FP8 para ofrecer Fuerte rendimiento de entrenamiento e inferencia para cargas de trabajo de IA”. Estos servidores HGR-AI-2 estarán disponibles para pedidos durante marzo en Europa, Canadá, Estados Unidos y Asia.

Para afrontar los retos que supone el procesamiento de tareas gráficas especialmente exigentes en recursos informáticos (renderizado 3D, vídeo, inferencia de datos, etc.), la firma también complementa su gama de servidores bare metal Scale con tres últimas ofertas equipadas con una GPU Nvidia L4. acelerador. . Según OVH, estos proporcionarán "recursos informáticos eficaces, especialmente en relación con los gráficos, la simulación o incluso en los campos de la ciencia y/o el análisis de datos". Estos organismos se lanzarán a finales de este año en Europa, pero también en Canadá y Estados Unidos, así como en Asia.

Herramientas completas de IA

Por último, para completar su oferta de servidores Nvidia A100, OVH lanza instancias H100 PCIe equipadas con hasta 4 sistemas DGX H100 a los que se añaden "grandes capacidades de memoria y almacenamiento local de alto rendimiento", indica el grupo sin más detalles. precisión en este momento. Disponibles de inmediato, las instancias Nvidia H100 PCIe se unen a la oferta A100 existente antes de la llegada de opciones adicionales basadas en las GPU para centros de datos L40S, L4 y A10 de Nvidia. Estas instancias H100 PCIe ya están disponibles en el Cloud Público de OVH a partir de 2,8 €/h. En cuanto a las instancias GPU L40S, L4 y A10 que estarán disponibles antes de finales de junio de 2024, también estarán en la gama Public Cloud a un precio de 1,4 €/h para las instancias L40S y 0,75 €/h para las L4.

Al mismo tiempo, el proveedor dice que también ha desarrollado un conjunto completo de herramientas sin servidor con AI Notebooks, AI Training y AI Deploy para ayudar a las empresas a jugar con datos y entrenar modelos antes de que entren en producción. Las soluciones gestionadas de AI Solutions basadas en instancias PCIe H100 ya están disponibles desde 3,1 €/h.