Las dos empresas se conocen bien desde hace más de trece años y acaban de anunciar un refuerzo de sus vínculos. AWS y Nvidia quieren proporcionar la infraestructura, el software y los servicios más avanzados para impulsar los proyectos de inteligencia artificial (IA), generativos y de otro tipo de sus clientes. Evidentemente, los dos gigantes pretenden implementar lo mejor de sus tecnologías, en particular los últimos servidores HPC de Nvidia equipados con software GPU, CPU y AI, y la virtualización y seguridad avanzadas de AWS Nitro System, la interconexión Elastic Fabric Adapter (EFA). y escalabilidad UltraCluster. Como parte de esta colaboración, los dos gigantes anunciaron que AWS será el primer proveedor de nube en adoptar los aceleradores GH200 NVL32 Grace Hopper.
"La asociación abre AWS a millones de desarrolladores y a las casi 40 000 empresas que utilizan estas bibliotecas", dijo Jensen Huang, y agregó que fue fantástico ver a AWS ampliar su oferta de instancias en la nube para incluir aceleradores de GPU L4, L40S y, pronto, H200 de NVIDIA. Luego, el jefe de Nvidia explicó que el GH200 conecta el procesador Grace de la empresa (con una CPU basada en ARM) a su GPU H200 mediante una interconexión de chip a chip llamada NVLink, con un rendimiento de un terabyte por segundo. Para entrar en detalles, AWS y Nvidia conectan 32 superchips Grace Hopper en cada bastidor mediante un conmutador NVLink. Cada nodo conectado a 32 NVLink GH200 se puede operar en una única instancia Amazon EC2. Cuando se integra con las redes AWS Nitro y EFA, los clientes pueden conectar instancias GH200 NVL32 para escalar a miles de superchips GH200. "Con AWS Nitro, esencialmente se convierte en una instancia de GPU virtual gigante", añadió Jensen Huang.
Nvidia y AWS han anunciado una serie de productos y soluciones que son el resultado de su asociación. (Crédito: Nvidia)
Una plataforma de formación de IA como servicio
Sobre la base de esta plataforma que ofrece “el mayor rendimiento para cargas de trabajo complejas de IA generativa”, en palabras del jefe de Nvidia, las dos empresas presentaron DGX Cloud en AWS. Presentada como una plataforma de formación de IA como servicio, ofrece a los desarrolladores una experiencia sin servidor optimizada para la IA generativa. “Esta será la primera DGX Cloud con GH200 NVL32, brindando a los desarrolladores la mayor memoria compartida en una sola instancia. DGX Cloud en AWS acelerará el entrenamiento de IA generativa de vanguardia y grandes modelos de lenguaje que pueden escalar más allá de 1 billón de parámetros”, afirma Nvidia.
Una supercomputadora llamada Proyecto Ceiba
Una fusión que da origen al sistema DGX Cloud AI. Con el nombre en código Proyecto Ceiba (en referencia al árbol amazónico de Ceiba), este superordenador, descrito como el primero de su tipo, estará equipado con 16.384 aceleradores GH200 y será capaz de procesar 65 exaflops. Project Ceiba se integrará con los servicios de AWS, como la red cifrada de Nube Privada Virtual (VPC) y el Elastic Block Store de alto rendimiento. “AWS y Nvidia han trabajado juntos durante más de 13 años, comenzando con la primera instancia de GPU en la nube del mundo. Hoy en día, ofrecemos la gama más amplia de soluciones GPU de Nvidia para cargas de trabajo que incluyen gráficos, juegos, computación de alto rendimiento, aprendizaje automático y ahora IA generativa”, anunció con orgullo Adam Selipsky, director ejecutivo de AWS.
Tenga en cuenta que las instancias de AWS con circuitos GH200 NVL32 (CPU y GPU) serán la primera infraestructura HPC en AWS que contará con refrigeración líquida para garantizar que los racks de servidores densamente poblados puedan funcionar de manera eficiente y con el máximo rendimiento. actuación. De este modo, las dos empresas podrán satisfacer la fuerte demanda de alto rendimiento, en particular para cargas de trabajo complejas de IA generativa, que abarcan FM, sistemas de recomendación y bases de datos vectoriales. Jensen Huang calificó la supercomputadora del Proyecto Ceiba como "bastante increíble" y dijo que podrá reducir a la mitad el tiempo de entrenamiento de los modelos de lenguaje más grandes. Y Nvidia tiene la intención de explotar esta supercomputadora para su propia I+D en IA, en particular para “hacer avanzar la IA para LLM, gráficos y simulación, biología digital, robótica, vehículos autónomos y predicción climática de la Tierra-2”.
Otras noticias que te pueden interesar