energético de la IA

El reto energético de la IA en los próximos años

Ocurre con cualquier innovación tecnológica. Lo que hay por detrás no se ve. Y en el caso de la IA generativa existe un trabajo computacional de gran calado en la sombra. Tiene lugar en los centros de datos, pero al usar ChatGPT o Bard los usuarios no somos conscientes de estos procesos. Sí lo son las compañías que deben balancear recursos para garantizar el servicio. Pero estas cargas de trabajo que se reparten los servidores también presentan un reto energético.

El uso de la inteligencia artificial consume una enorme cantidad de energía. El informe RBC Generative AI Update, publicado en noviembre de 2023 por la rama analista del banco de inversión RBC Capital Markets, ofrece una estimación que invita a reflexionar. Hasta 2040, se prevé que el consumo eléctrico de la IA crezca un 25% anual, mientras que el de los centros de datos lo hará en un 8%. Para esa fecha, el 80% de la energía que utilicen estas instalaciones se destinará cargas de trabajo de IA.

Otro estudio reciente, publicado por la revista científica Joule, presenta una perspectiva igualmente llamativa. Dada la tendencia actual, el fabricante Nvidia, que hoy proporciona la mayoría de procesadores dedicados a inteligencia artificial, despacharía 1,5 millones de chips al año para 2027. Todo este hardware podría consumir entre 85 TWh y 134 TWh al año. Para hacerse una idea de la magnitud, el consumo de Países Bajos es de unos 110 TWh anuales. El de un país como Argentina asciende a 121 TWh.

La electricidad que necesita la inteligencia artificial para funcionar podría llevar a un aumento de las emisiones de CO2. Esto se podría dar en un escenario donde los centros de datos se apoyen en combustibles fósiles. Se trata de una tentación difícil de ignorar para afrontar un incremento rápido del gasto energético.

La presencia de las renovables en centros de datos

Hoy en día los centros de datos representan entre el 1-1,5% de la energía que se consume en el mundo, según datos de la Agencia Internacional de la Energía. Es una cuota que se ha mantenido estable a lo largo de la última década. Aunque algunas previsiones apuntan a un aumento en los próximos años. La consultora McKinsey calcula que solo en Estados Unidos se duplicarán las necesidades entre 2022 y 2030. Pese a las particularidades de este país, que acumula una vasta capacidad de cómputo, su crecimiento es significativo.

Schüco Iberia Paneles Solares

En este punto, los principales propietarios de centros de datos ya han tomado medidas para reducir sus emisiones. Amazon, que es líder global del mercado cloud a través de Amazon Web Services, tiene un 90% de sus necesidades energéticas cubiertas con renovables. Su objetivo es llegar a la totalidad en 2025. La misma fecha se ha propuesto Microsoft, segundo en el ranking. Google, en tercera posición, se ha fijado el horizonte de 2030 para lograr unas operaciones que no emitan CO2.

Abordar el reto energético de la IA

Pero la avalancha de la IA traerá un incremento en el gasto eléctrico que es necesario planificar. Al menos si se quiere profundizar en la reducción de las emisiones. Desde el MIT proponen soluciones de eficiencia energética en el hardware y en el software. Pero también abogan por ajustar el entrenamiento de los modelos de IA para optimizar el consumo energético de este proceso.

Por otra parte, aún hay mucha confusión en un sector que es muy reciente. Se crean modelos que sirven para cualquier tarea, desde las más complejas a las más sencillas. Y una de las tendencias que ya ha empezado a calar en las empresas es la fragmentación de la oferta de modelos de IA. Con el tiempo, los habrá de diferente tamaño, para adaptarse a las necesidades de cada tarea y evitar sobredimensionar los recursos de computación.

En lo que respecta a la producción eléctrica, la suma de las energías solar y eólica se presenta como la solución más adecuada para el nuevo reto energético de la IA. Es la misma fórmula que ya han usado los centros de datos para limitar su dependencia de los combustibles fósiles. La escalabilidad de las granjas de paneles fotovoltaicos se combina con la potencia de los parques eólicos.

Se trata de una solución de futuro. No en vano, un estudio de la firma analista Persistence Market Research apunta una expectativa de crecimiento del 14% anual hasta 2032 para el mercado de los centros de datos verdes. Estos son aquellos que emplean tecnologías y estrategias para minimizar su impacto ambiental. Entre las fórmulas que utilizan se encuentra la adopción de renovables como fuentes de suministro eléctrico.

Energías renovables

Microsoft mira hacia la energía nuclear como solución

Existen compañías que miran incluso hacia propuestas más heterodoxas. Microsoft, consciente del enorme reto energético de la IA para sus centros de datos, explora el uso de la nuclear. Pero su enfoque es diferente al clásico. Su objetivo sería la creación de reactores modulares pequeños (SMR) para satisfacer la futura demanda de electricidad.

La compañía estaría interesada —en base a lo que se deducía de una oferta de empleo— en diseñar un plan para instalar este tipo de pequeñas centrales junto a los centros de datos. Consisten en un reactor nuclear de tamaño reducido, con la ventaja de poder colocarlo cerca del lugar de consumo de energía. Además, son más baratos de construir, porque pueden enviarse al cliente prefabricados. Su potencia puede ser de hasta 300 MW, un tercio de lo que puede producir una planta nuclear tradicional.

Este es otro de los caminos que se plantean para cubrir las necesidades energéticas crecientes de los centros de datos. Es una fórmula que no emite de CO2 a la atmósfera. Si bien es cierto que aún no se ha encontrado una solución adecuada los residuos radiactivos que genera.

El consumo energético de la IA en dos fases

Lo que parece claro es que el reto energético de la IA será un asunto que los centros de datos afrontarán en los próximos años. De vuelta al estudio publicado en Joule, su autor expresaba su preocupación en declaraciones a Scientific American con una especulación ilustrativa. Señalaba que si el buscador de Google se convirtiera en una herramienta de IA tipo ChatGPT, las 9.000 millones de búsquedas diarias que realizan los usuarios se transformarían en interacciones con un chatbot. Esto provocaría que el gasto eléctrico se disparara. Tanto que solo el buscador necesitaría la misma energía que consume Irlanda para funcionar.

Estamos hablando de un producto, probablemente el más utilizados de Internet, sí, pero solo uno. Así que el autor aboga por incluir la vertiente de sostenibilidad cuando se hable de los riesgos de la IA. Esta tecnología consume energía en dos fases. Lo primero es entrenar al algoritmo y, en una segunda etapa, lo que produce gasto eléctrico es la operación. Hasta ahora, con algoritmos más tradicionales, ambas fases estaban equilibradas, aunque el entrenamiento consumía menos energía. Sin embargo, con los modelos de los chatbots actuales, la fase de operación se dispara. No hay datos sobre ChatGPT, la herramienta que más tiempo lleva en uso, pero se sospecha que ejecutarlo conlleva un gasto eléctrico mucho mayor que entrenarlo.

Imagen de portada: Lars Kienle

Sobre el autor

RELACIONADOS

GPT-4o

Cómo usar GPT-4o en tus dispositivos

GPT-4o ya está aquí. La inteligencia artificial de OpenAI sigue evolucionando a gran velocidad. En esta ocasión, este modelo de IA es capaz de...