La industria de la inteligencia artificial podría consumir tanta energía como un país del tamaño de los Países Bajos o Irlanda, advierte un nuevo estudio. Esto, cuando se instale de manera general, que el responsable del análisis calcula para 2027.

La investigación fue realizada por Alex De Vries, candidato a doctor en la Escuela de Negocios y Economía de VU Amsterdam. También es fundador de Digiconomist, una empresa dedicada a exponer las consecuencias no deseadas de las tendencias digitales. De Vries toma en cuenta varios parámetros, como el ritmo al que crece esta tecnología, la disponibilidad de chips de inteligencia artificial y el gasto de energía de los servidores hasta ahora.

ChatGPT fue el detonante de todo. Desde que el famoso chatbot irrumpió en el mercado en noviembre pasado, las grandes tecnológicas como Microsoft y Google concentraron sus esfuerzos en poner a punto sus propias herramientas de inteligencia artificial. Todo, a una velocidad frenética, con el consecuente impacto ambiental.

Otro estudio reveló en abril que las compañías estaban utilizando una cantidad impresionante de agua dulce para enfriar los servidores vinculados con productos como ChatGPT. El entrenamiento de GPT-3 —uno de los modelos detrás de ChatGPT— en los centros de datos de Microsoft en EE. UU. llegó a consumir directamente 700.000 litros de agua dulce limpia. Es lo mismo, por ejemplo, que demandaría producir 370 coches BMW o 320 vehículos eléctricos Tesla.

La investigación de De Vries, que fue revisada por pares y publicada en la revista Joule, destaca que el consumo de electricidad de los centros de datos venía representando un 1%, relativamente estable, del uso mundial de electricidad. Entre 2010 y 2018, el consumo habría aumentado solo un 6%. La preocupación es que la inteligencia artificial provoque ahora un salto en estos registros.

Movil chatgpt logo Openai, ChatGPT iOS
ChatGPT fue lanzado en noviembre de 2022.

¿Cuánta energía puede demandar el empleo de la inteligencia artificial?

De Vries tomó como referencia que GPT-3 consumió unos 1.287 MWh de electricidad en su fase de entrenamiento. Gopher y Open Pre-trained Transformer, otras desarrolladoras, usaron 1.066 y 324 MWh, respectivamente. Pero el gasto de energía sigue siendo monumental luego del desarrollo inicial.

ChatGPT responde unas 195 millones de solicitudes por día, apunta el estudio. Esto requiere un consumo de electricidad promedio estimado de 564 MWh por día. O, como máximo, 2,9 vatio-hora (Wh) por solicitud.

Otra variable importante que consideró fue el empleo de los chips de Nvidia. De Vries estima que la compañía suministrará alrededor del 95% del kit de procesamiento de inteligencia artificial requerido por la industria en 2027. Es básicamente la misma proporción que algunas analistas le confieren actualmente a Nvidia en el sector.

Nvidia ha fabricado durante años unidades de procesamiento gráfico (GPU) que estaban destinadas a la ejecución de videojuegos. Ahora, estos mismos chips se emplean para poner en marcha los poderosos algoritmos detrás de los sistemas de inteligencia artificial. ChatGPT y otros modelos de OpenAI, por ejemplo, se desarrollaron gracias a una supercomputadora provista por Microsoft que utiliza cerca de 10 mil de estas GPU.

NVIDIA podría estar enviando para 2027 cerca de 1,5 millones de sus unidades, incluso si su participación de mercado disminuye, como está previsto. De Vries estima que, sobre la base del consumo de estas unidades, se puede suponer un rango de uso de energía de entre 85 a 134 teravatios-hora (TWh) de electricidad por día para mantener en marcha los sistemas de inteligencia artificial. En el peor de los casos, es aproximadamente la cantidad de energía que usa un país entero.

«Estaríamos hablando del tamaño de un país como los Países Bajos en términos de consumo de electricidad. Estamos hablando de aproximadamente el medio por ciento de nuestro consumo total de electricidad a nivel mundial», dijo De Vries a la BBC.

Nvidia CEO Jensen Huang
Jen-Hsun Huang, CEO de Nvidia. Credit: Nvidia

Solo Google usaría tanta energía como Irlanda

Google ya ha incorporado la inteligencia artificial en varias de sus herramientas, como Gmail, Fotos y otras aplicaciones de Worskpace. También puso en funcionamiento Bard, su versión de ChatGPT. ¿Qué pasaría si cada consulta estándar en el buscador más utilizado del mundo fuera impulsada por inteligencia artificial?

El consumo total de electricidad de Google fue de 18,3 TWh en 2021. La inteligencia artificial representó entonces entre el 10% y el 15% del total. «El peor de los casos sugiere que la inteligencia artificial de Google por sí sola podría consumir tanta electricidad como un país como Irlanda», destaca el análisis de De Vries.

El presidente de Alphabet, John Hennessy, dijo a Reuters en febrero que interactuar con un modelo grande de lenguaje (LLM) podría «probablemente costar 10 veces más que una búsqueda estándar por palabra clave». Una búsqueda en Google gasta 0,3 Wh de electricidad. Llegado el caso, el cálculo por cada búsqueda impulsada por inteligencia artificial sería de 3 Wh.

Consumo de energía estimado por solicitud para varios sistemas impulsados ​​por IA en comparación con una búsqueda estándar de Google.

SemiAnalysis estimó que implementar una IA similar a ChatGPT en cada búsqueda de Google requeriría un total de 4.102.568 GPU. Con una demanda de 6,5 kW por servidor, esto se traduciría en un consumo diario de 80 GWh. Y, por lo tanto, en un consumo anual de 29,2 TWh. Sin embargo, aclara De Vries, este escenario supone una adopción de inteligencia artificial a gran escala utilizando hardware y software actuales, algo que ve poco probable que suceda rápidamente.

Google Assistant se integrará con Bard
Bard es el chatbot de Google impulsado por inteligencia artificial.

La búsqueda de alternativas

El uso de tanta energía es muy costosa. Por eso, las desarrolladoras tienen rato buscando alternativas. «Si podemos reducir la inteligencia de costos y el costo de la energía, la calidad de vida de todos nosotros aumentará increíblemente», dijo en mayo Sam Altman, líder de OpenAI, la creadora de ChatGPT.

Altman también es uno de los inversores más importante en Helion, que en mayo firmó un acuerdo con Microsoft para proveerle electricidad a partir de 2028 a partir de fusión nuclear. «Hay que hacer que los sistemas de inteligencia artificial sean cada vez más potentes por cada vez menos dinero», dijo Altman a propósito del nuevo convenio.

OpenAI tiene meses analizando también una alternativa a los chips costosos y escasos de Nvidia. Otros como Microsoft, Intel y Meta han hecho la misma diligencia, con la meta puesta en fabricar sus propios chips.

Pero De Vries advierte: «Probablemente, sea demasiado optimista esperar que las mejoras en la eficiencia del hardware y el software compensen por completo cualquier cambio a largo plazo». Estos avances también pueden desencadenar un efecto rebote. «Una mayor eficiencia conduce a una mayor demanda», aumentando en lugar de reducir el uso total de recursos, dice el reporte.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: