Con motivo de su evento Next 2024 en Las Vegas, Nube de Google presentó varias novedades en su infraestructura, en particular en procesadores. El proveedor se suma a AWS y Microsoft al presentar su primer chip ARM. Llamado Axion, fue desarrollado a partir del diseño Neoverse 2 de la compañía británica. Frente a la competencia Chips de gravitones (AWS) Y Cobalto (Microsoft)Google Cloud afirma que sus instancias Axion ofrecen un rendimiento general un 30 % mejor. En comparación con instancias comparables con chips x86, la mejora es de hasta un 50 % en rendimiento y un 60 % en eficiencia energética.

A nivel interno, Google ya utiliza Axion para implementar servicios como BigTable, Spanner, BigQuery, Blobstore, Pub/Sub, Google Earth Engine y la plataforma de anuncios de YouTube. Sin embargo, la empresa ha dado pocos detalles sobre el aspecto técnico. "Axion se basa en la arquitectura y el conjunto de instrucciones estándar de Armv9 y está respaldado por el sistema de microcontrolador Titanium", afirma Un comunicado de prensaGCP afirma que ha trabajado con ARM para garantizar que “los sistemas operativos y el software comunes puedan ejecutarse sin problemas en servidores y máquinas virtuales basados ​​en ARM”. En cuanto a los plazos, el proveedor sigue siendo evasivo: “planeamos implementar y escalar estos y otros servicios en Axion pronto”. Agrega que los clientes encontrarán Axion en Google Compute Engine, Google Kubernetes Engine, Dataproc, Dataflow, Cloud Batch y más.

TPU 5vp y otras instancias

Además de este anuncio, el CEO de Google Cloud, Thomas Kurian, también anunció la disponibilidad general de los chips TPU v5p para flujos de trabajo de IA. Anunciados en diciembre pasado, ofrecen importantes mejoras de rendimiento, con el doble de operaciones de punto flotante por segundo y el triple de ancho de banda de memoria (MBW) en comparación con los aceleradores TPU v4. Siguen la evolución anterior TPU v5e se lanzó en agosto pasado en la conferencia Next 2023En cada pod TPU v5p, Google Cloud integra 8.960 chips. Una potencia capaz de entrenar modelos de IA más rápido.

Siguiendo con la IA, Google Cloud lanzó la instancia A3 Mega basada en aceleradores Nvidia H100. Disponible el mes que viene, ofrece el doble de ancho de banda que las instancias A3 anteriores. Además, la compañía presentó la instancia Confidential A3 para abordar el mercado de la computación confidencial, una arquitectura que mejora la seguridad y la confidencialidad, enfocada en proteger los datos en uso.Anuncios recientes de Nvidia en torno a Blackwell Este modelo encuentra eco en Google Cloud, que está construyendo dos plataformas basadas en HGX B200 y GB200 NVL72. No estarán disponibles antes de 2025 y abordarán tanto las cargas de trabajo de IA como la inferencia en tiempo real de los LLM.