Los centros de datos son notorios consumidores de energía, y el aumento de la potencia de red y de procesamiento necesaria para manejar las cargas de trabajo de IA solo exacerbará el desafío de la sostenibilidad. Como señala Denise Lee, vicepresidenta de la Oficina de Sostenibilidad e Ingeniería de Cisco, los avances en la infraestructura de IA (servidores, almacenamiento y red) pueden estar en desacuerdo con los objetivos de consumo de energía. Pero se están haciendo esfuerzos en los centros de datos para adaptarse al creciente uso de IA y ML sin perder de vista la eficiencia energética, la refrigeración y el rendimiento. Lee enumeró tres tendencias que, en su opinión, están impulsando la concienciación sobre los problemas de energía y sostenibilidad en los EE. UU. y en todo el mundo. En primer lugar, las organizaciones no gubernamentales (ONG) están creando conciencia sobre las emisiones de carbono, los gases de efecto invernadero y su impacto en la atmósfera. "Además, las iniciativas gubernamentales, como el Pacto Verde Europeo, están dando lugar a políticas centradas en la sostenibilidad para renovar edificios con el fin de mejorar la eficiencia energética, por ejemplo, y limitar la construcción de nuevos centros de datos", dijo Lee.
Además, “en el sector privado, las empresas se están comprometiendo con un desarrollo neutro en carbono y con cero emisiones netas y están utilizando evaluaciones proporcionadas por el Climate Disclosure Project (CDP)”, agregó. La organización global recopila datos informados por las empresas sobre los riesgos y las oportunidades relacionados con el cambio climático, la seguridad hídrica y la deforestación. Estos datos son utilizados por inversores, empresas y reguladores para abordar cuestiones de sostenibilidad. “Estos datos del CDP son muy valiosos para tomar decisiones comerciales”, dijo Lee. Los ejemplos incluyen evaluar el impacto ambiental de los centros de datos para la IA, decidir dónde construir nuevos centros de datos y determinar la cantidad de energía renovable frente a la no renovable disponible en la red local. En el futuro, las empresas deberán abordar una serie de preguntas clave sobre los requisitos de rendimiento del centro de datos, el consumo de energía, la refrigeración, el espacio y el impacto en la infraestructura de la red.
Recomendaciones de Cisco
En una publicación reciente de su blog, Lee planteó algunas preguntas específicas que los propietarios y operadores de centros de datos deberán considerar desde una perspectiva de sostenibilidad al diseñar sus entornos para la IA:
- Implicaciones de red: “Actualmente, Ethernet es el medio dominante para la IA en la mayoría de los casos de uso que requieren ahorro de costos, escala y facilidad de soporte. Según Dell'Oro Group, para 2027, hasta el 20 % de todos los puertos de conmutación de los centros de datos se asignarán a servidores de IA, lo que demuestra la creciente importancia de las cargas de trabajo de IA en las redes de los centros de datos”, escribió Lee. “Además, el desafío de integrar las GPU en la infraestructura del centro de datos es una preocupación notable desde una perspectiva de energía y refrigeración. Esto puede requerir cambios sustanciales, como la adopción de soluciones de refrigeración líquida y ajustes en la capacidad energética”.
- Desafíos de rendimiento: “El uso de aceleradores de GPU es esencial para el entrenamiento y la inferencia de IA/ML, pero puede representar un desafío para la infraestructura de TI del centro de datos desde una perspectiva de energía y refrigeración. Como las cargas de trabajo de IA requieren GPU cada vez más potentes, los centros de datos a menudo tienen dificultades para mantenerse al día con la demanda de recursos informáticos de alto rendimiento. Por lo tanto, los administradores y desarrolladores de centros de datos se benefician de la implementación estratégica de GPU para optimizar su utilización y eficiencia energética”, escribió Lee.
- Limitaciones de potencia: “La infraestructura de IA/ML está limitada principalmente por la potencia de procesamiento y la memoria. La red desempeña un papel crucial en la conexión de múltiples elementos de procesamiento, a menudo distribuyendo funciones de procesamiento entre diferentes nodos, lo que impone importantes requisitos de capacidad y eficiencia energética. Cumplir con los estrictos requisitos de latencia y rendimiento y, al mismo tiempo, minimizar el consumo de energía es una tarea compleja que requiere soluciones innovadoras”.
- Estrategias de adopción: “Los primeros en adoptar tecnologías de IA de última generación han reconocido que, para soportar cargas de trabajo de IA de alta densidad, normalmente se ha requerido el uso de centros de datos multisitio o microcentros de datos”, continuó Lee. “Estos centros de datos de menor escala están diseñados para manejar las demandas de computación intensivas de las aplicaciones de IA. Sin embargo, este enfoque ejerce una presión adicional sobre la infraestructura de red, que debe ser de alto rendimiento y resistente para soportar la naturaleza distribuida de estas implementaciones de centros de datos”.
- Refrigeración: esta es otra consideración importante en los centros de datos que manejan cargas de trabajo de IA. “Los métodos tradicionales de refrigeración por aire pueden ser inadecuados en las implementaciones de centros de datos de IA/ML, y también pueden ser perjudiciales para el medio ambiente. Las soluciones de refrigeración líquida ofrecen una alternativa más eficiente, pero requieren una integración cuidadosa en la infraestructura del centro de datos”, dijo Lee. “La industria necesita trabajar en la refrigeración líquida. Simplemente no podemos enfriar los chips que están llegando”, agregó. De hecho, a medida que aumentan las densidades de los racks de servidores y las temperaturas suben, más centros de datos están encontrando formas de agregar refrigeración líquida a sus instalaciones. Según Global Market Insights, se estimó que el mercado global de refrigeración líquida para centros de datos tendría un valor de 2 mil millones de dólares en 2022 y se espera que crezca a una tasa de crecimiento anual compuesta (CAGR) del 15% entre 2023 y 2032.
Hacia redes más eficientes energéticamente
Una clase relativamente nueva de sistema de energía, conocida como Energía Gestionada por Fallas Clase 4 (FMP, por sus siglas en inglés), aporta una tecnología interesante que podría ayudar a los esfuerzos de sostenibilidad. Esta FMP Clase 4, adoptada a fines de 2022 por el Código Eléctrico Nacional (NEC, por sus siglas en inglés), puede manejar niveles de energía significativos, hasta 2000 vatios, en distancias más largas que las clases de circuitos más antiguas, según el NEC. Los sistemas FMP Clase 4 se describen como "sostenibles" porque permiten el uso de cables de menor calibre, eliminan la necesidad de conductos y ofrecen un control inteligente de la distribución de energía. Estos atributos pueden conducir a un menor uso de material y carbono incorporado por proyecto, lo que contribuye a una infraestructura eléctrica más sostenible, según el NEC. Están diseñados para proporcionar distribución de energía en una variedad de aplicaciones, como Power over Ethernet, dispositivos de Internet de las cosas (IoT), sistemas de edificios inteligentes, monitoreo y control de dispositivos electrónicos y electrodomésticos, sistemas de seguridad y componentes electrónicos en áreas grandes como edificios, estadios o campus. “La clase 4 FMP es un centro de distribución 'seguro al tacto', por lo que es fácil de usar”, explicó Lee. “Estamos trabajando rápidamente en esta tecnología con otros actores del mercado para la educación, la concientización y la adopción de esta tecnología a lo largo del tiempo”.
Cisco Lee también está considerando la posibilidad de crear redes energéticas, que implican la integración de capacidades de gestión energética y API en su cartera de redes para transformar la red en un plano de control para medir, monitorear y gestionar la energía. “La idea es convertir los datos en visibilidad energética en tiempo real y conocimientos que los clientes puedan utilizar para optimizar el consumo energético, minimizar las emisiones, reducir los costos y mejorar las capacidades de generación de informes”, dijo Lee. “Las redes energéticas se basan en la idea de que se puede conectar la energía en red de la misma manera que se conectan los datos en red. Si se puede hacer todo junto en la misma línea, se abrirían muchos casos de uso de gestión energética para los clientes”, dijo Lee.
Otras noticias que te pueden interesar