A pesar de las dificultades que rodean su quijotesco proyecto Metaverse, la empresa matriz de Facebook, Meta, ha revelado planes para desarrollar su propio chip personalizado (ASIC) para ejecutar modelos de inteligencia artificial y arquitectura de centro de datos para cargas de trabajo de IA. "Estamos ejecutando un plan ambicioso para construir la próxima generación de infraestructura de IA de Meta y hoy compartimos algunos detalles sobre nuestro progreso. Esto incluye nuestro primer chip personalizado para ejecutar modelos de IA, un nuevo diseño de centro de datos optimizado para IA y la segunda fase de nuestra supercomputadora de 16.000 GPU para la investigación de IA”, escribió Santosh Janardhan, jefe de infraestructura de Meta, en una publicación de blog. En Meta, las cargas de trabajo de IA están en todas partes y sirven como base para muchas aplicaciones, como la comprensión de contenidos, los feeds, la IA generativa y la clasificación de anuncios. Con su integración perfecta con Python, su ejecución lista para usar y sus API simples, PyTorch puede ejecutar estas cargas de trabajo. En particular, los DLRM son esenciales para mejorar la experiencia del usuario en todos los productos y ofertas Meta. Los sistemas de hardware deben proporcionar cada vez más memoria y computación a medida que aumentan el tamaño y la complejidad de estos modelos, todo ello sin consumir demasiada energía eléctrica.

El ASIC diseñado para la IA de Meta se fabrica en 7.000 millones de nm en las fundiciones de TSMC. (Crédito SL)

Grabado en 7 nm en TSMC, el chip ASIC de Meta para ejecutar modelos de IA, llamado Meta Training and Inference Accelerator (MTIA), está diseñado para proporcionar mayor potencia informática y eficiencia que los procesadores actualmente en el mercado. el mercado, según Janardhan. MTIA está personalizado para cargas de trabajo internas (ver arriba), y agrega que la primera versión del chip se diseñó en 2020. El anuncio de Meta sobre el progreso que está logrando para producir sus propios chips ASIC para IA dedicada llega en un momento en que otras grandes empresas tecnológicas -impulsados ​​por la proliferación de grandes modelos lingüísticos y de IA generativa- están trabajando o ya han lanzado sus propios chips para estas cargas de trabajo. A principios de este mes, Los artículos informaron que Microsoft estaba trabajando con AMD. para desarrollar su propio chip para AWS también lanzó su propio chip para ejecutar cargas de trabajo de IA.

Centros de datos creados para la IA

Por su parte, Meta también dijo el jueves que se está desarrollando un centro de datos optimizado para entrenar modelos de IA, con el fin de mejorar el rendimiento a medida que aumenta la cantidad de datos procesados. "Este centro de datos tendrá un diseño optimizado para IA, que admitirá hardware de IA refrigerado por líquido y una red de IA de alto rendimiento que conectará miles de chips de IA en grupos dedicados al entrenamiento de IA a escala de centro de datos", escribió Janardhan, y agregó que los centros de datos será más rápido de construir y más rentable que las instalaciones anteriores.

Además de diseñar centros de datos de IA dedicados, la compañía informó que está trabajando en el desarrollo de supercomputadoras de IA que respaldarán la producción de modelos de IA de próxima generación, herramientas de realidad aumentada y traducción en tiempo real.