Mantener activo ChatGPT, el popular chatbot de OpenAI, es muy caro, y también consume muchos recursos. Entre ellos, una gran cantidad de energía necesaria para mantener activos los servidores. Pero también un exceso de agua, según un estudio de la Universidad de Colorado Riverside y la Universidad de Texas Arlington.
El estudio, que mide el impacto energético que tienen los modelos de inteligencia artificial como ChatGPT, GPT-3 y GPT-4, revela que las compañías utilizan una gran cantidad de agua dulce para enfriar los servidores dedicados al funcionamiento de los mencionados productos de IA. Tan solo Microsoft, de hecho, ha llegado a usar hasta 700.000 litros de agua en sus centros de datos de Estados Unidos. Y solo para entrenar a GPT-3. Es un hasto que, tal y como afirman los investigadores, se triplicaría “si el entrenamiento se hubiera realizado en los centros de datos asiáticos de Microsoft”.
Como ejemplo de la cantidad excesiva de agua que Microsoft ha consumido para enfriar sus servidores dedicados al entrenamiento de la IA, los investigadores aseguran que con estos 700.000 litros, BWM podría producir hasta 370 coches, y Tesla hasta 320.
ChatGPT consume una botella de agua por cada sesión de chat
El gasto de agua también es excesivo cuando los usuarios usan ChatGPT. En concreto, el chatbot consume el equivalente a una botella de agua de 500 ml por cada sesión de chat de unas 20 a 50 preguntas. Una cantidad aparentemente ínfima, pero considerable si tenemos en cuenta que millones de personas conversas con la IA.
Es, por supuesto, un problema grave teniendo en cuenta la escasez de agua limpia. Los investigadores, además, instan en que las compañías encargadas de desarrollar modelos de IA, “deberían asumir su responsabilidad social y predicar con el ejemplo abordando su propia huella hídrica”. No especifican, eso sí, ninguna solución efectiva para empresas como OpenAI, creadora de ChatGPT, o Google, quien recientemente anunció Bard.
Mantener activo ChatGPT también es excesivamente costoso
Además de consumir mucha energía y agua, ChatGPT también es excesivamente costoso para OpenAI. Tom Goldstein, investigador y actual profesor en el departamento de Ciencias de la Computación en la Universidad de Maryland, estima que mantener activos los servidores para hacer funcionar el chatbot le cuesta a OpenAI entre 100.000 dólares al día y 3 millones de dólares al mes.
Precisamente, y para poder continuar manteniendo el servicio, OpenAI anunció un plan 'Plus' de ChatGPT. En este, y por 20 dólares al mes, los usuarios pueden acceder al chatbot de forma ilimitada. Es decir, incluso en aquellas “horas puntas” donde hay más usuarios. Los suscriptores a ChatGPT Plus también pueden probar ya GPT-4, el nuevo modelo de lenguaje de la compañía que es considerablemente más avanzado —y actualizado— que GPT-3.