En apenas un año, ChatGPT ha modificado la forma de buscar en internet y ha abierto una oportunidad de negocio para centenares de empresas. La herramienta de Sam Altman, fundador de OpenAI, ya cuenta con 100 millones de usuarios y es capaz de darte una respuesta en milisegundos. Detrás de esta solución, miles de chips, de operaciones matemáticas y de algoritmos que permiten resolver dudas como si hablaras con un humano. Aunque no siempre es capaz de encontrarla siempre.
«La cantidad de energía que consumimos depende de la infraestructura en la que se ejecute el modelo y la cantidad de solicitudes que reciba», responde la solución de OpenAI ante la pregunta cuánta energía consume. La huella de estas nuevas tecnologías es una de las grandes críticas de las organizaciones ecologistas.
La inteligencia artificial (IA) es una tecnología que demanda una gran cantidad de recursos energéticos, tanto para su entrenamiento como para su uso, y cuanto más avanzada sea, más necesita. Se estima que para el entrenamiento de GPT-3 se necesitaron 78.437 kWh o lo que es lo mismo, el consumo de energía de un hogar medio en España 23 años, según datos del Instituto de la Ingeniería de España (IIE). «La fase de entrenamiento de los modelos de IA, a menudo considerada la que consume más energía», apunta en una investigación Alex de Vries, investigador en la Amsterdam School of Business and Economics y fundador Digiconomist
Sin embargo, a medida que va creciendo su uso, el gasto es aún mayor. Los números actuales son entre 0,001 y 0,01 kWh de consumo por búsqueda y ya se producen alrededor de 1.800 millones de consultas al mes. Según la investigación de De Vries, el consumo puede alcanzar los 564 MWh por día. No obstante, «el futuro exacto del consumo de electricidad relacionado con la IA sigue siendo difícil de predecir», advierte el investigador neerlandés.
Una complicada predicción fundamentada en la escasa transparencia de uno de los padres de las inteligencias artificiales generativas, ya que OpenAI no informa del consumo energético de su negocio. A pesar de ello, De Vries ha conseguido calcular la cifra aproximada gracias a los números presentados por Nvidia.
La compañía estadounidense es uno de los principales proveedores de procesadores gráficos para sistemas de inteligencia artificial. La Nvidia A100 y la H100 son los hardware más usados, hasta copar el 95% del mercado. «Se espera que la empresa entregue 100.000 de sus servidores de IA en 2023». Así con una proyección, los cálculos llevan la cifra hasta los 6,5 kilovatios para los servidores A100 de Nvidia y 10,2 kilovatios para sus servidores DGX H100. «Estos servidores tendrían una demanda de energía combinada de 650 a 1020 MW y, este 2023, podrían consumir entre 5,7 y 8,9 TWh de electricidad», señala en su investigación.
Un consumo lejano, aún, de las cifras de los centros de datos: «el consumo histórico de electricidad anual estimado de los centros de datos, que fue de 205 TWh», revela De Vries. «Esto es insignificante.
En 2022, los centros de datos que alimentan todas las computadoras, incluida la nube de Amazon y el motor de búsqueda de Google, utilizaron entre el 1 y el 1,3 por ciento de la electricidad mundial.vA este consumo se añadirá próximamente el de los servidores que dan vida a las herramientas de inteligencia artificial podrían utilizar entre 85 y 134 teravatios hora (Twh) al año en 2027. «Eso es similar a lo que usan Argentina, Países Bajos y Suecia cada uno en un año, y representa aproximadamente el 0,5% del uso actual de electricidad en el mundo», detalla De Vries.
Huella hídrica
Sin embargo, la energía no es el único consumo de estas tecnologías, el agua es otro importante recurso usado por los centros de datos que dan soporte a las inteligencias artificiales. Las salas que dan ‘cobijo’ a estos servidores están diseñados para operar entre 20ºC y 22ºC, «si esas temperaturas aumentan, aumentan la probabilidad de fallo en los equipos», apunta David Mytton, investigador de computación sostenible en la Universidad de Oxford, en un artículo publicado en Nature. Así pues, el agua se convierte en un elemento vital para su funcionamiento.
Los números difieren en cuanto al tamaño y al tráfico de datos que tienen estos centros. La horquilla varía desde los 7.600 metros cúbicos de agua potable por día de consumo de Google en Uruguay hasta los 660 millones de litros de agua que prevé usar Meta en Talavera de la Reina (Toledo). De acuerdo con datos de DGTL Infra, el consumo diario promedio de agua de un solo edificio de centro de datos es de aproximadamente 24,9 millones de litros de agua al año o lo que es lo mismo 68.219 litros por día.