Vivir desde las Vegas. Se espera que más de 32,000 personas en Las Vegas asistan al próximo evento de Google Cloud Que se celebra del 9 al 11 de abril de 2025. Si Thomas Kurian, el jefe de la nube de proveedores está presente, es de hecho Sundar Pichai, CEO de Alphabet que comenzó el evento. Presentó la estrategia de IA del grupo en perspectiva, recordando la necesidad de una infraestructura de latencia eficiente y muy baja. "Vamos a acelerar las inversiones con $ 75 mil millones planificados en la creación de Datacenter en los próximos años", explica el gerente.
Una forma de responder a las diversas iniciativas como Proyecto Stargate (Openai, SoftBank y Oracle) que proporciona $ 500 MD de inversión Y en un momento en que algunos actores como Microsoft suspenden la creación de nuevos centros de datos de IA. Agrega tener una base importante de 200 centros de datos en todo el mundo y más de 2 millones de km de fibras ópticas.
Ironwood, una TPU tallada para inferencia
Pero la IA es cada vez más codiciosa en términos de recursos de cálculo. En este contexto, Google Cloud presentó la séptima generación de su TPU (unidad de procesamiento de tensor) conocida por el nombre de código Ironwood. El tiene éxito en Trillium presentado en mayo de 2024 y está destinado a los tratamientos para tareas de inferencia. Como recordatorio, la inferencia es la operación en la que un modelo de IA proporciona una respuesta de los datos que se distinguirán de la etapa de entrenamiento de un modelo. "El desarrollo de agentes de IA que movilizan modelos de razonamiento requieren necesidades de cálculo adicionales", dijo el vicepresidente de Vahdat en el escenario, vicepresidente a cargo del aprendizaje automático, los sistemas y la nube IA en Google Cloud.
TPU Ironwood promete ganancias de rendimiento, especialmente en la gestión de la memoria de HBM. (Foto de Crédit: JC)
En detalle, se puede acceder a Ironwood TPU en 256 o 9,126 cápsulas de chips. En esta última configuración, Google Cloud reclama una capacidad de cálculo de 45.2 Exafflops. Cada chip es capaz de tratar 4.16 tflops. En la memoria, las cápsulas pueden administrar hasta 192 GB de HBM y mejorar el ancho de banda a 7.2 Tb/s (contra 1.638 TB/s para TriLum). La transferencia de datos entre pulgas también se mejora con la tecnología aquí (interconexión entre chip) a 1.2 TB/s. Si el proveedor tiene cuidado de no comparar los chips de madera de hierro con sus predecesores directos, los evalúa en comparación con la TPU de 5 VP: por lo tanto, las ganancias están muy presentes, pero en las proporciones a poner en perspectiva. Tenga en cuenta que las TPU de Ironwood se suministran con Sparsecore, descritos como un acelerador especializado en el tratamiento de voluminosas embedidas. Está acompañado por la ruta, un tiempo de ejecución ML desarrollado por DeepMind que ofrece un cálculo distribuido entre varios chips TPU. Disponible a fin de año, las TPU de Ironwood también son una respuesta a la competencia que desarrollan sus propios AWS o Maia 100 Entreniums en Microsoft.
Instancias nvidia y nube wan blackwell
Nvidia no está ausente de la siguiente, incluso si el acento se ha puesto en los chips caseros. Google Cloud tiene de hecho anunciado el mes pasado La disponibilidad de instancias A4 que operan en aceleradores B200 (Blackwell). Con motivo del evento, presentó una vista previa de las instancias A4X basadas en la arquitectura GB200 NVL72 (combinando la gracia de la CPU en ARM y Blackwell GPU). Google Cloud ha agregado optimizaciones como el director de clúster (anteriormente HyperComuter Cluster) que ofrece implementar y administrar un grupo de aceleradores como una sola unidad con máquinas virtuales colocadas físicamente. Finalmente en relación con los desarrollos de Nvidia, en medio de Vahdat especifica que Google Cloud será el primero en ofrecer GPU Rubin presentado en el último GTC.
Finalmente, en la parte de la red, la compañía presenta Cloud WAN, la columna vertebral que se utiliza para los servicios de Google (Gmail, YouTube o el motor de búsqueda). Se basa en una red compuesta por más de 2 millones de kilómetros de fibra, 33 cables submarinos y 202 puntos de presencia. Este servicio de red extendido está dirigido a empresas con necesidades de conectividad eficientes. Se destacan dos casos de uso: conectividad interregional para conectar centros de datos dispersos y el que entre las subsidiarias. Cloud WAN incluye varios elementos, enlaces de interconexión en la nube (para conectar centros de datos comerciales con Google Cloud), interconexión de nube cruzada (para multicloud con enlaces directos a otros proveedores de la nube). Google Cloud agrega la opción Interconnect Cross Site en la vista previa, que proporciona conexiones de 2 puntos de nivel privado a 10 Gbps o 100 GBPS.
Otras noticias que te pueden interesar