Reguladores, inversores, consumidores e incluso empleados: todos están presionando a las empresas para que minimicen el impacto climático de sus iniciativas de IA. Hay diversos factores que pueden contribuir a ello (desde centros de datos alimentados con energía geotérmica hasta unidades de procesamiento gráfico (GPU) más eficientes), pero los propios usuarios también deben ir más allá del deseo de utilizar los modelos de IA más grandes para resolver todos los problemas si realmente quieren combatir el cambio climático.

Los temores de que la IA esté contribuyendo al calentamiento global surgen de estimaciones de que las GPU utilizadas para desarrollar y ejecutar modelos de IA consumen cuatro veces más energía que las que sirven a las aplicaciones de nube convencionales, y que la IA podría estar preparada para consumir tanta electricidad como Irlanda.

En respuesta, los reguladores de Europa y Estados Unidos están tomando medidas para exigir a los grandes usuarios de IA que informen sobre su impacto ambiental. Las agencias de calificación y los clientes están prestando más atención a cuestiones ambientales, sociales y de gobernanza (ESG), como las emisiones de carbono, afirma Faith Taylor, vicepresidenta de sostenibilidad y responsable de ESG en el proveedor de servicios de infraestructura Kyndryl. Además, afirma, "los empleados, en particular la generación más joven, dicen que no trabajarán para una empresa que no tenga algunos objetivos ambientales. Vemos eso como un factor impulsor de la contratación y la retención".

A medida que los esfuerzos de sostenibilidad se vuelven una mayor prioridad, aquí hay cuatro formas en que las empresas pueden optimizar el impacto ambiental de sus inversiones en IA.

Centrarse en procesos y arquitecturas más eficientes

Boris Gamazaychikov, responsable de reducción de emisiones en el proveedor de SaaS Salesforce, recomienda utilizar modelos de IA especializados para reducir la energía necesaria para entrenarlos. “¿Un modelo que puede escribir un soneto necesita escribir código informático para nosotros?”, pregunta. “Creemos que no. Nuestro enfoque ha sido crear modelos específicos para casos de uso específicos en lugar de un modelo de propósito general”.

También recomienda recurrir a la comunidad de código abierto para encontrar modelos que puedan entrenarse previamente para diversas tareas. Cita, por ejemplo, Llama-2 de Meta, del que ya se han creado más de 13.000 variantes. “Estos 13.000 nuevos modelos no requieren entrenamiento previo”, afirma. “Piense en la cantidad de computación y emisiones de carbono que se ahorran. El equipo de investigación de IA de Salesforce también ha desarrollado métodos como el paralelismo máximo”, añade. Este enfoque distribuye de manera eficiente las tareas que requieren un uso intensivo de la computación para reducir el consumo de energía y las emisiones de carbono.

En lugar de entrenar el modelo con todo el conjunto de datos de entrenamiento a la vez, Salesforce lo hace en varios pasos (llamados "épocas") en los que una parte de los datos se modifica ligeramente cada vez en función de los resultados del entrenamiento anterior. Esto también ayuda a reducir el consumo de energía.

Algunos hiperescaladores también ofrecen herramientas y orientación para que la IA sea más sostenible, como Amazon Web Services, que ofrece orientación sobre el uso de tecnologías sin servidor (para eliminar recursos inactivos), herramientas de gestión de datos y conjuntos de datos. AWS también ofrece plantillas para reducir el procesamiento y el almacenamiento de datos, así como herramientas para “ajustar el tamaño” de la infraestructura para una aplicación de IA. Si se utilizan correctamente, estas herramientas pueden ayudar a minimizar los recursos informáticos necesarios para la IA y, por lo tanto, su impacto en el medio ambiente.

Utilice menos datos

Reducir el tamaño de los conjuntos de datos utilizados para entrenar un modelo es una de las formas más eficaces de minimizar el consumo de energía y las emisiones de carbono de la IA. “Se puede reducir el tamaño de muchos modelos de IA en un orden de magnitud mientras se pierde solo entre un dos y un tres por ciento en precisión”, dice la profesora Amanda Stent, directora del Instituto Davis de Inteligencia Artificial en Colby College. “Estas técnicas son bien conocidas, pero no se utilizan tanto como podrían porque la gente se deja seducir por la idea de los modelos grandes”. A esto hay que sumarle la cobertura de prensa que han recibido.

Boris Gamazaychikov afirma que la última versión del modelo CodeGen de Salesforce, que permite a los usuarios generar código ejecutable mediante un mensaje en lenguaje natural, funciona tan bien como modelos del doble de su tamaño. Como regla general, afirma, una reducción del 50% en el tamaño del modelo se traduce en una reducción equivalente en las emisiones de carbono.

En Plex, un servicio de streaming de vídeo y música, Scott Weston, responsable de ciencia de datos, reduce el tamaño de sus datos de entrenamiento centrándose en una necesidad específica. “No solo queremos saber qué usuarios se van a suscribir o abandonar, sino quiénes deberían suscribirse y cómo conseguir que se suscriban”, afirma. El entrenamiento del modelo es más sencillo porque el conjunto de datos está más orientado y limitado al problema empresarial específico que se intenta resolver, añade. “El entorno es un ganador porque no necesitamos toda esa potencia informática adicional para entrenar nuestros modelos”.

Scott Weston utiliza un modelo ascendente, ejecuta una serie de pruebas A/B para determinar cómo responden los clientes potenciales a diferentes ofertas y luego utiliza los resultados de esas pruebas para crear el modelo. El tamaño de los conjuntos de datos también está limitado por cuestiones comerciales. “Somos cautelosos a la hora de ejecutar pruebas grandes porque no queremos interrumpir el flujo habitual de comunicación con nuestros clientes”.

Alimentando centros de datos con energía renovable

Alojar operaciones de IA en un centro de datos alimentado por energía renovable es una forma sencilla de reducir las emisiones de carbono, pero tiene sus contrapartidas.

El servicio de traducción en línea Deepl ejecuta sus funciones de inteligencia artificial desde cuatro centros de datos de coubicación: dos en Islandia, uno en Suecia y otro en Finlandia. El centro de datos islandés utiliza energía geotérmica e hidroeléctrica 100 por ciento renovable. El clima frío también elimina el 40 por ciento o más de la energía total necesaria para enfriar los servidores. Es tan simple como abrir las ventanas en lugar de usar aires acondicionados, dice Guido Simon, director de ingeniería de Deepl. El costo también es ventajoso, dice, con precios de 5 centavos por kW/h en comparación con los 30 centavos o más en Alemania.

La latencia de la red entre el usuario y un centro de datos sostenible puede ser un problema para las aplicaciones sensibles a las respuestas, señala Stent. Pero esa preocupación solo se aplica a la fase de inferencia, donde la aplicación proporciona respuestas a los usuarios, no al entrenamiento preliminar.

Deepl, con sede en Colonia (Alemania), descubrió que era posible ejecutar tanto el entrenamiento como la inferencia en sus centros de datos remotos. “Tenemos unos 20 milisegundos más de latencia que un centro de datos más cercano a nosotros”, afirma Simon. “Durante el proceso de inferencia, la conexión inicial con el motor de IA puede tardar 10 viajes de ida y vuelta, lo que se traduce en un retraso de 200 a 300 milisegundos debido a la distancia, pero se puede optimizar la aplicación para reducir este tiempo inicial”.

Por supuesto, la velocidad de la conexión a Internet en el sitio remoto puede mitigar estos problemas de latencia. Verne Global Iceland, uno de los proveedores islandeses de Deepl, afirma ser el sitio de interconexión para todos los sistemas de cable submarino hacia y desde Islandia, con conectividad de fibra redundante de alta capacidad con Europa y los EE. UU.

Incluso si un centro de datos utiliza energía “renovable”, dice Stent, también está la cuestión de qué GPU o unidades de procesamiento tensorial (TPU) se están implementando. Si no se utilizan los chips más recientes y eficientes, podría terminar consumiendo más energía que un centro de datos alimentado de manera convencional, pero más moderno. Pero eso no es un problema para Deepl, que aloja sus propios servidores, que ellos llaman “de última generación”, en sus instalaciones de coubicación, dice Simon.

No utilices IA en absoluto

Si bien la IA puede entusiasmar a los empleados y clientes, puede resultar innecesaria si otros enfoques son más fáciles de implementar y tienen un menor impacto ambiental. “Siempre considere si la IA/ML es adecuada para su aplicación”, recomienda AWS en sus pautas de sostenibilidad. “No es necesario utilizar una IA que requiera un uso intensivo de recursos informáticos cuando un enfoque más simple y sostenible puede ser igual de eficaz. Por ejemplo, usar la IA para enrutar mensajes de IoT puede no tener sentido; puede expresar la lógica utilizando un motor de reglas”.

Además de las consideraciones medioambientales, Plex no puede permitirse gastar millones de dólares en informática para entrenar los modelos más grandes. “Se trata de ser ingenioso y asegurarse de pensar en todo y no solo de tirar dinero al problema”, dice Weston.

La empresa de juegos online Mino Games utiliza DataGPT, que integra herramientas de analítica, una base de datos para el almacenamiento en caché y procesos de extracción, traducción y carga (ETL) para acelerar las consultas, como las relacionadas con la comprensión de nuevas características para ofrecer a los jugadores. Diego Cáceres, responsable de análisis de datos, aconseja cautela a la hora de utilizar la IA. “Formule el problema de negocio con cuidado y pregúntese si los cálculos matemáticos simples no son suficientes”, aconseja.

Desafíos que enfrenta la IA sostenible

Más allá del costo de implementar una IA sustentable dentro de una aplicación distribuida y basada en la nube, es difícil saber qué carga de trabajo consume energía, dice Yugal Joshi, socio de la consultora Everest Group. Por eso, dice, la mayoría de las empresas se concentran primero en los resultados comerciales de la IA y luego en la sustentabilidad.

Otro desafío, dice Boris Gamazaychikov de Salesforce, es lograr que los desarrolladores proporcionen información sobre la huella de carbono de sus modelos base. Con la creciente regulación de fuentes como la Unión Europea y la Comisión de Bolsa y Valores de Estados Unidos, "si las empresas aún no están divulgando estas cifras, tendrán que comenzar a hacerlo pronto", dice.

Otro desafío para la moderación es el atractivo de los avances espectaculares en IA, sin importar el costo ambiental. “Algunas empresas se promocionan como sustentables, pero también quieren ser conocidas por su excelencia en IA, y sus empleados quieren hacer algo que transforme el negocio”, observa Amanda Stent de Colby College. “Hasta que las presiones financieras obliguen a las empresas a ser más efectivas en IA, algo más las alejará del objetivo de sustentabilidad”.