HPE impulsa a Greenlake con soluciones para IA y LLM

hace 1 año

000000092500.jpg

En su conferencia Discover 2023 Las Vegas, HPE anunció la expansión de su oferta de facturación de servicios en la nube a pedido de Greenlake para inteligencia artificial y LLM. Las empresas utilizarán los sistemas Cray XD basados ​​en el acelerador H100 de Nvidia para aprovechar Luminous, un modelo de lenguaje ampliado previo a la formación diseñado por la empresa emergente alemana Aleph Alpha.

El consumo de recursos informáticos bajo demanda está aumentando, especialmente porque el apetito de las empresas por proyectos de IA basados ​​en modelos de lenguaje extendido (LLM) es grande. HPE lo ha entendido bien y está aprovechando su última conferencia Discover en Las Vegas (20-22 de junio) para ampliar su cartera de servicios en la nube de GreenLake consumidos y facturados bajo demanda con una oferta específicamente orientada a IA y LLM. "Con la introducción de HPE GreenLake para Big Language Models, las empresas pueden entrenar, ajustar e implementar IA de forma privada a escala utilizando una plataforma de supercomputadora duradera que combina el software de IA de HPE y los líderes del mercado de supercomputadoras", explicó el proveedor estadounidense.

GreenLake for Large Language Models se ejecutará en las supercomputadoras Cray XD del proveedor (anteriormente Apollo) que ejecutan los aceleradores H100 de Nvidia. En su conferencia GTC en septiembre de 2022, este último anunció que los modelos de lenguaje extendido serían uno de los casos de uso de IA más importantes para su último acelerador de GPU. Al apostar por él para sus últimos servicios, la firma tejana, por tanto, no crea realmente una sorpresa en este punto. Por el lado del software, HPE impulsa un entorno de programación específico e integrado para optimizar las aplicaciones de HPC e IA con un conjunto completo de herramientas en desarrollo, portabilidad, depuración y parametrización de código.

Índice
  1. Un LLM pre-entrenado que maneja francés
  2. Disponibilidad en Europa no antes de 2024

Un LLM pre-entrenado que maneja francés

"Además, la plataforma de supercomputadora es compatible con el software AI/ML de HPE, que incluye el entorno de desarrollo de aprendizaje automático para entrenar rápidamente modelos a gran escala, y el software de gestión de datos de aprendizaje automático para integrar, rastrear y auditar datos con capacidades de IA reproducibles para generar datos confiables y modelos precisos ", continúa el proveedor. GreenLake para LLM incluirá acceso a Luminous, un modelo de idioma pre-entrenado de la startup alemana Aleph Alpha que se ofrece en varios idiomas, incluidos inglés, francés, alemán, italiano y español. Este modelo de idioma extendido proporciona la capacidad de las empresas para extraer sus propios datos a escala, entrenar y ajustar un modelo personalizado, para obtener información personalizada en tiempo real. A diferencia de ChatGPT, esta tecnología está dirigida más a BtB que al público en general y ya ha sido utilizada por varios compañías en los sectores de salud y servicios financieros, así como en el campo legal, dijo HPE.

Holger Mueller, analista de Constellation Research, dijo que HPE está ingresando a un escenario cada vez más concurrido, con muchos proveedores de infraestructura compitiendo para impulsar la próxima generación de cargas de trabajo de IA generativa, y señaló que el proveedor sí tenía una carta para jugar. “HPE realmente tiene un as bajo la manga con sus supercomputadoras Cray, que tienen la arquitectura perfecta para manejar cargas de trabajo LLM [...] HPE también está abierto a colaborar con múltiples socios de IA, comenzando con Aleph Alpha. Podría resultar especialmente atractivo para los clientes europeos conscientes de la seguridad de los datos, que pueden utilizar GreenLake para la formación en la nube y luego realizar inferencias en las instalaciones, creando más cargas de trabajo para los servidores ProLiant empresariales”. Una perspectiva interesante, pero ¿a qué precio? Por el momento, el proveedor no ha brindado detalles al respecto, limitándose a argumentar que su oferta evitaría que las empresas tengan que comprar y administrar una supercomputadora que es “generalmente costosa, compleja y que requiere conocimientos específicos”. .

Disponibilidad en Europa no antes de 2024

La última oferta de HPE funcionará en instalaciones de colocación, comenzando con el operador canadiense de centros de datos QScale, con el que firmó una asociación el mes pasado. Este último ofrece instalaciones en su campus Q01, que tiene la particularidad de estar alimentado con 142 megavatios de energía renovable. La comercialización comenzará a finales de 2023 en Estados Unidos y en 2024 para Europa.

HPE dijo que GreenLake for LLM es la primera de una serie de ofertas para abordar el procesamiento de IA para otras industrias para atender otros tipos de necesidades verticales. Andy Thurai, analista de Constellation Research, explicó que esta oferta le parece única en el mercado en comparación con otros proveedores de nube. “La creación de plataformas específicas de dominio en estas industrias específicas puede generar valor, lo cual es difícil de hacer con las nubes públicas”, dice Andy Thurai. HPE ya está considerando oportunidades complementarias para otras aplicaciones en modelado climático, salud y ciencias de la vida, servicios financieros o incluso fabricación y transporte...

Si quieres conocer otros artículos parecidos a HPE impulsa a Greenlake con soluciones para IA y LLM puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir