En cualquier caso, el verdadero peso hídrico de la IA no solo se encuentra en su uso cotidiano, sino también en el entrenamiento de modelos avanzados como GPT-3, el cerebro detrás de ChatGPT. Este proceso, llevado a cabo en centros de datos de última generación, consume cantidades masivas de agua. Puede parecer una barbaridad, pero se estima que sólo entrenar GPT-3 requirió cerca de 700.000 litros de agua dulce limpia. Lo más preocupante es que estas cifras suelen permanecer en la sombra, con las empresas tecnológicas mostrando reticencia a compartir datos sobre su impacto ambiental.
El aspecto más crítico de la IA es que su demanda mundial puede ser responsable de la extracción de agua de 4.2 a 6.6 mil millones de m3 en 2027, lo que es más que la extracción total anual de agua de 4 a 6 veces Dinamarca o la mitad del Reino Unido. Esto es muy preocupante, ya que la escasez de agua dulce se ha convertido en uno de los desafíos más apremiantes que compartimos a raíz del rápido crecimiento de la población, el agotamiento de los recursos hídricos y el envejecimiento de las infraestructuras hídricas. Otra investigación proyecta que para 2030 Europa consumirá anualmente entre 273.4 y 820.1 millones de m3 de agua.
Lo cierto es que empresas como Microsoft, que albergan los sistemas que soportan ChatGPT, están comenzando a implementar medidas para optimizar el uso de agua y energía. Sin embargo, la transparencia sigue siendo un problema. Sin datos claros sobre el impacto hídrico de cada modelo, resulta difícil evaluar la sostenibilidad de la IA, ya que uno de los recursos indispensables que necesitan estas grandes "granjas digitales" es el agua para refrigerar los sistemas. El enfriamiento se puede hacer con complejos sistemas de ventilación, la gran apuesta a futuro, pero actualmente, es mucho más barato enfriar los procesadores con agua.
Según la consultora especializada Dgtl Infra, estas naves "beben" una media de 25 millones de litros anuales. Las grandes infraestructuras (conocidos como hipercentros) pueden alcanzar incluso los 600 millones. Una cifra similar (504 millones), por ejemplo, es la que va a consumir el centro de datos que Meta va a construir en Talavera de la Reina (Toledo, España). En esta inversión, como en tantas otras a nivel global, la excesiva demanda de agua choca con el déficit hídrico de los territorios. La cuenca del Tajo, en plena sequía, ya está muy tensionada por el uso agrícola, actividad que en España consume más del 80% de toda el agua disponible, considerando sobre todo que la aridez aumentó en el 84% de la superficie de España en la última década.
BeFunky-collage (67).jpg
Datacenter de Meta. Fuente: Meta
En Estados Unidos, que concentra el 30% de todos los data centers del mundo, las "peleas por el agua" son uno de los principales motivos de rechazo a estas millonarias inversiones. El caso más conocido es el de The Dalles, un pequeño pueblo de Oregón, donde Google instaló una infraestructura que triplicó en 5 años -sin comunicarlo a las autoridades políticas- su consumo, bebiendo una cuarta parte del agua de toda la localidad. Según datos de la propia compañía, Google aumentó en un 20% su consumo de agua en 2022, superando los 28 millones de m³, una cifra récord.
En Microsoft, dueña de un 75% de OpenAI (los creadores de ChatGPT), el porcentaje fue aún mayor: el incremento anual (2021/2022) fue del 34%, según consta en su último informe de sostenibilidad, periodo en que la empresa consumió 6.4 millones de m³ de agua, 1.6 millones más que en 2021, lo equivalente a llenar más de 2000 piscinas de tamaño olímpico. ¿El motivo de este importante aumento de consumo? El aumento en el uso del agua está directamente relacionado con la inversión y el desarrollo de la IA por parte de la empresa. En julio de 2022, un mes antes de que OpenAI afirmara haber completado el entrenamiento de GPT-4, Microsoft reportó un consumo de casi 44.000 litros en sus data centers de Iowa, el 6% de todo el suministro de agua del distrito.
Precisar con exactitud el consumo hídrico de esta tecnología es tema de investigación en la comunidad científica. La Universidad de California (Estados Unidos) realizó un estudio (2023) para determinar qué cantidad de agua consume el Centro de Datos de Microsoft en Iowa (Estados Unidos), que mayoritariamente se utiliza para hacer funcionar GPT-4 de OpenAI. El consumo de agua de este centro aumentó un 37% desde 2021, una disparada que se le atribuye mayoritariamente a la IA. En total, estos servidores requieren la dramática cifra de 6.436 millones de litros de agua al año para poder operar.
Este gasto tiene en cuenta el consumo de las plantas energéticas que alimentan al centro de datos, además de la propia refrigeración de los centros. Aunque es importante aclarar que en Iowa solo utilizarán agua para refrigerar los meses de verano, por lo que el consumo de agua es aún mayor en otros lugares dedicados a esta tarea. De hecho, es la misma investigación la que señala que el consumo de agua en todos los centros de datos de Google ha aumentado un 30% desde 2021. Unas cifras que no son bien recibidas cuando, en muchos países del mundo, la sequía es un enorme problema.
Ante el gran consumo de electricidad y agua que sufren los centros de cómputo, existe el desafío de la falta de transparencia por parte de los principales proveedores de servicios de cómputos: Google, Meta, Microsoft y Amazon. Esta falta de transparencia dificulta que los gobiernos y los responsables de la toma de decisiones se ocupen de la gestión de la electricidad y el agua en las zonas donde operan o pueden entrar en servicio centros de computación. Un ejemplo: en agosto de 2022, en una ola de calor que afectó a gran parte de los Países Bajos, Microsoft quedó envuelto en una polémica por el consumo de agua de un data center ubicado en el municipio de Hollandse Kroon. Una investigación periodística reveló que la infraestructura utilizó 84 millones de litros de agua de refrigeración, cuando la empresa y el municipio explicaron al momento de su construcción que el consumo de agua se limitaría a entre 12 y 20 millones de litros.
Cabe acotar que el agua para refrigeración de los data centers se toma de la fuente que sea, se trata y se mete en un circuito para capturar el calor de los ordenadores. Una vez caliente, se manda a unas torres de refrigeración para que por evaporación ceda todo el calor y condense otra vez en forma de agua fría que se vuelve a meter en el circuito. De este circuito cerrado parte del agua se pierde por evaporación, y otra parte se tiene que ir purgando del sistema (vertiendo) porque va concentrando sales y es necesario ir renovándola por agua fresca. Sin embargo, ese vertido, en torno al 20% de la captación total, contiene grandes cantidades de minerales y sal, por lo que no puede dedicarse al consumo humano sin antes ser tratado.
Así, los centros de datos utilizan agua para que sus equipos no excedan la temperatura adecuada y no se rompan. De esta manera, Microsoft informó que empleó casi 13 mil millones de litros durante 2023, de las cuales 8 mil se evaporaron o consumieron y no pudieron reutilizarse. Por su parte, Google usó alrededor de 8600 millones de litros, pero solo volvió a utilizar cerca del 25%.
La tendencia es construir centros que no consuman agua; el sector está muy abierto a probar tecnologías nuevas, aunque están en etapas aún poco maduras. Por lo que para mitigar el impacto ambiental de la IA, se insta a adoptar prácticas de desarrollo y uso responsable de esta tecnología, incluida la eficiencia energética en los algoritmos y la infraestructura física en la que opera. También es importante fomentar la investigación en IA verde y tecnologías más sostenibles.