Raja Koduri, Intel: "Ponte Vecchio supera a las GPU de Nvidia en muchas cargas de trabajo"
hace 3 años
Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.
¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?
Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.
En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?
Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.
Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?
AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.
¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?
Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.
En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?
A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.
Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?
En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.
En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?
En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.
¿Qué papel juegan los aceleradores de red?
Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.
Si quieres conocer otros artículos parecidos a Raja Koduri, Intel: "Ponte Vecchio supera a las GPU de Nvidia en muchas cargas de trabajo" puedes visitar la categoría Otros.
Otras noticias que te pueden interesar