Al igual que su empresa, la mayoría de los CIO están comprometidos con una política de limitación de los impactos medioambientales de la tecnología digital, o Green IT, con iniciativas para alargar la vida útil de los terminales o el ecodiseño de las aplicaciones, por ejemplo. Un enfoque a largo plazo que está teniendo repercusiones en el auge de la IA, y en particular de la IA generativa. Las capacidades generales de estos modelos están directamente relacionadas con el tamaño de los modelos de lenguaje (LLM) que los sustentan, que por tanto requieren una potencia de máquina considerable para las fases de entrenamiento (a veces millones de horas de computación por GPU).
Sasha Luccioni, HuggingFace: "La generación de texto consume mucha más energía que una simple búsqueda. No tiene sentido generar texto para este tipo de necesidades".
Y, cuidado, advierte Sasha Luccioni, investigadora especializada en el tema en la start-up HuggingFace, no se puede limitar la evaluación del impacto medioambiental de la IA generativa solo a la fase de entrenamiento. Dada la amplia distribución de usos de la tecnología, la inferencia (es decir, la producción de resultados) también pesa mucho. Todo esto en un contexto en el que los editores de herramientas de IA generativa, como OpenAI, Meta o Google, apenas son transparentes sobre las emisiones generadas por sus servicios. "Desde el lanzamiento de ChatGPT, ha habido incluso menos transparencia sobre las cifras que antes. Es un secretismo total", lamenta Sasha Luccioni.
Vea la transmisión de la redacción de Le Monde Informatique y COI con testimonios de Sasha Luccioni, Stéphane Tanguy y Jean Ponce (vídeo, 43 min.)
Un estudio reciente en el que ha participado Sasha Luccioni estima que se necesitan entre 200 y 500 millones de consultas para conseguir un impacto medioambiental equivalente al de la fase de entrenamiento (la cifra precisa depende del uso y del tamaño del modelo). “200 millones de consultas para ChatGPT son solo tres semanas de uso normal”, subraya la investigadora. Este estudio también pone de relieve los usos más consumidores de energía de la IA generativa, como la generación de imágenes, así como la sobrecarga medioambiental de los modelos más genéricos en comparación con equivalentes más pequeños diseñados para tareas específicas. Y Sasha Luccioni destaca la aberración que supone el uso de GenAI en el contexto de la investigación: “la generación de texto consume mucha más energía que una simple búsqueda. No tiene sentido generar texto para este tipo de necesidad”.
El rastro cuántico
Stéphane Tanguy, director de sistemas de información y tecnología de los laboratorios de EDF, utiliza ante todo la inteligencia artificial con sus equipos, por ejemplo para mejorar el nivel de precisión de las previsiones de consumo. "Sobre todo porque el modelo se ha vuelto más complejo con la producción descentralizada. Tendremos que ser capaces de hacer previsiones a escalas más locales que antes", describe el director de sistemas de información y tecnología. Para estas necesidades, pero también para los cálculos de simulación (millones de tareas cada mes), EDF está empezando a "mostrar a los usuarios internos el cálculo del coste energético por cálculo".
Stéphane Tanguy, EDF: «En informática cuántica, hemos puesto en marcha un proyecto de investigación para intentar tomar las decisiones de diseño correctas desde el principio, a diferencia del transistor y el microprocesador que se desarrollaron sin tener en cuenta las limitaciones medioambientales».
Más allá de esta responsabilidad del usuario, EDF está trabajando en varias áreas tecnológicas, en diferentes horizontes. "A corto plazo, la tendencia es pasar a modelos más frugales, modelos más pequeños que GPT 3.5 o 4. Queremos desarrollar modelos soberanos a partir de pequeños modelos Open Source y especializarlos en nuestras propias bases de conocimiento", explica Stéphane Tanguy. A medio y largo plazo, el departamento de I+D del electricista también está evaluando las oportunidades que ofrece la computación cuántica. "Los ordenadores cuánticos actuales, con unos pocos cientos de qubits, tienen un consumo relativamente razonable. Pero esto no es suficiente para predecir su rendimiento una vez que se amplíen", continúa el CIO. De ahí un proyecto de investigación de cuatro años lanzado por EDF con otros actores del ecosistema cuántico para explorar este tema del consumo energético de los sistemas cuánticos. ¿El objetivo de este programa apoyado por el BPI? "Intentar hoy tomar las decisiones de diseño correctas en este ámbito, a diferencia del transistor y el microprocesador que se desarrollaron sin tener en cuenta las limitaciones ambientales", explica Stéphane Tanguy.
Redes neuronales y el “vuelo hacia adelante”
Por su parte, Jean Ponce, profesor del departamento de informática de la ENS PSL, recuerda el marco en el que debe situarse la reflexión sobre el impacto de la IA. El consumo energético de los centros de datos que albergan modelos de IA es solo el aspecto más visible del impacto medioambiental de la tecnología, que debe tener en cuenta el ciclo completo, desde la producción de materiales y componentes necesarios para la construcción de los centros de datos hasta su reciclaje, pasando por el consumo de agua. Y señala la vaguedad que aún rodea las evaluaciones actuales: "sobre el impacto de la IA, los estudios se contradicen", señala Jean Ponce.
En este último caso, se pone de relieve el gran avance que supusieron las redes neuronales convolucionales a finales de los años 80, que, una vez ampliadas a grandes volúmenes de datos asociados a importantes capacidades de cálculo, empezaron a ofrecer resultados convincentes a principios de la década de 2010. "Fue entonces cuando nos dimos cuenta de que disponer de una enorme cantidad de datos y recursos de cálculo permitía obtener resultados mucho mejores. Y desde entonces hemos asistido a una carrera vertiginosa", describe el profesor, que también trabaja en la Universidad de Nueva York.
Sin embargo, según Jean Ponce, hay varias razones que empujan a los investigadores a desarrollar hoy una IA más frugal: razones que califican de "estéticas" -desarrollar un modelo superpotente para cubrir un conjunto de tareas especializadas es una solución matemática poco elegante-, limitar el impacto medioambiental, pero también el desarrollo de aplicaciones embebidas o Edge. "Por ejemplo, para un robot, es absurdo enseñar a un modelo los movimientos de este robot, ya que lo has construido, por lo que ya tienes esta información", ilustra el académico. Una forma de combinar modelado e IA para limitar la factura climática global de una tecnología cada vez más presente en las empresas.
Otras noticias que te pueden interesar