El uso de la tecnología digital es una parte inseparable de la vida moderna, pero pocas personas se detienen a pensar en el impacto ambiental que tiene, especialmente en el consumo de agua. Desde la inteligencia artificial hasta el simple almacenamiento de datos en la nube, la infraestructura digital global depende de centros de datos (data centers) que, en muchos casos, requieren grandes cantidades de agua para funcionar de manera eficiente.
¿Por qué los centros de datos consumen agua?
La principal razón es la necesidad de enfriar los servidores que procesan y almacenan información. Estos equipos generan una enorme cantidad de calor, y si no se enfrían adecuadamente, pueden fallar o reducir su vida útil. Tradicionalmente, el enfriamiento se realiza mediante sistemas que utilizan agua, ya sea de forma directa (en circuitos de refrigeración) o indirecta (en torres de enfriamiento que evaporan agua para disipar el calor).
El auge de la IA y el aumento del consumo de agua
El crecimiento explosivo de la inteligencia artificial (IA) ha disparado la demanda de recursos en los centros de datos. Los modelos de IA, especialmente los generativos, requieren servidores más potentes y densos, lo que incrementa la necesidad de enfriamiento y, por tanto, de agua. Se estima que cada vez que interactuamos con una IA, como al hacer una consulta a un chatbot, se consumen aproximadamente casi medio litro de agua en los centros de datos que ejecutan estos sistemas. Empresas como Microsoft y Google han reportado aumentos del 34% y 22% respectivamente en su consumo de agua en solo un año, en gran parte debido a la IA.
¿Todos los centros de datos consumen agua?
No todos los centros de datos dependen del agua para su enfriamiento. Existen alternativas como el enfriamiento por aire, que es más común en climas fríos o en instalaciones de menor densidad, y métodos innovadores como el uso de aire exterior (free cooling), que puede reducir el consumo de agua a casi cero en ciertas ubicaciones. Además, Microsoft ha experimentado con centros de datos submarinos, como el proyecto Natick, que aprovechan el entorno marino para enfriar los servidores sin necesidad de agua dulce, logrando además una mayor fiabilidad de los equipos.
Uso de agua reciclada y no potable
Para reducir el impacto ambiental, muchas empresas tecnológicas están recurriendo al uso de agua no apta para el consumo humano, como agua reciclada o depurada. Amazon Web Services (AWS), por ejemplo, utiliza aguas residuales tratadas en al menos 20 de sus centros de datos, mientras que Google emplea agua reciclada en más del 25% de sus instalaciones. Microsoft y Apple también han implementado sistemas similares en varias regiones, contribuyendo a la conservación de agua potable para otros usos.
Métodos alternativos de enfriamiento
Además del uso de agua, existen diversas tecnologías para enfriar los centros de datos:
- Enfriamiento por aire: utiliza aire acondicionado especializado (CRAC/CRAH) y diseños de pasillos fríos y calientes para optimizar el flujo de aire.
- Enfriamiento por inmersión: los servidores se sumergen en líquidos dieléctricos no conductores, que absorben el calor de manera eficiente y permiten reutilizar el líquido en un circuito cerrado.
- Enfriamiento directo al chip: líquidos refrigerantes circulan directamente sobre los componentes más calientes, como CPUs y GPUs, maximizando la eficiencia.
- Enfriamiento adiabático: utiliza la evaporación del agua para enfriar el aire, pero con sistemas que minimizan el consumo de agua.
- Free cooling: Aprovecha el aire exterior frío o el agua de ríos/mar para enfriar los equipos, reduciendo o eliminando el uso de agua dulce.
- Sistemas inteligentes y robótica: el uso de IA y sensores permite optimizar el uso de energía y agua, ajustando el enfriamiento en tiempo real según la carga de trabajo y la temperatura ambiente.
¿Cuánta agua consumen los grandes centros de datos?
Para dimensionar el impacto, Google reveló que sus centros de datos consumen tanta agua al año como una ciudad de 320,000 habitantes. Un centro de datos de tamaño medio en EE. UU. puede usar hasta 300,000 galones de agua al día, equivalente al consumo de 1,000 hogares estadounidenses. A nivel global, se estima que la IA podría llegar a consumir entre 4,200 y 6,600 millones de metros cúbicos de agua al año para 2027, lo que equivale a varias veces el consumo anual de un país como Dinamarca.
Conclusión
El consumo de agua de la tecnología digital es un desafío creciente, especialmente con la expansión de la inteligencia artificial. Sin embargo, la industria está adoptando soluciones innovadoras para reducir su huella hídrica, como el uso de agua reciclada, tecnologías de enfriamiento más eficientes y el desarrollo de centros de datos que no requieren agua. Como usuarios, ser conscientes de este impacto es el primer paso para exigir y apoyar una tecnología más sostenible.
Y además del agua, habría que tener en cuenta el gasto energético que conlleva el uso de la IA y los centros de datos. La combinación de ambos recursos es lo que hace que la tecnología digital tenga un impacto ambiental significativo. Por lo tanto, es fundamental seguir investigando y desarrollando soluciones que minimicen el uso de ambos recursos.