Grok-2 y la amenaza hídrica: el costo oculto de la inteligencia artificial

Arte: Valeria Fernandez

El reciente lanzamiento de Grok-2, un modelo de inteligencia artificial desarrollado por la empresa xAI, de Elon Musk, ha vuelto a poner sobre la mesa el debate ético en torno al uso y avance de la IA. Y es que Grok-2, con su capacidad para generar textos e imágenes sin restricciones, ha intensificado las discusiones sobre el plagio y la propiedad intelectual. Sin embargo, un tema crucial que ha recibido poca atención es el impacto ambiental de estos modelos de IA y sus implicaciones para el futuro de nuestro planeta.

Con ello, no me refiero únicamente a la huella de carbono, sino también al consumo de recursos básicos. De hecho, los centros de datos de las empresas tecnológicas consumen una gran cantidad de energía eléctrica proveniente de combustibles fósiles para alimentar sus servidores, lo que aumenta la emisión de gases de efecto invernadero. Si bien este alto consumo energético es conocido, pocos saben que estos servidores también requieren mucha agua; por ejemplo, una conversación de 15 preguntas con un chatbot como ChatGPT usa alrededor de medio litro de agua.

En efecto, las supercomputadoras que entrenan a los modelos de IA requieren sistemas de refrigeración que utilizan grandes volúmenes de agua potable. Utilizar agua salada no es una opción, pues puede averiar los costosos materiales de estos ordenadores, como los GPUs o procesadores gráficos. Según la Universidad de California, entrenar un modelo de IA puede requerir de hasta 700 000 litros de agua potable. 

Mientras más GPUs tenga la supercomputadora, más agua potable se precisará para el enfriamiento por evaporación. Un pequeño repaso del historial de Grok revela una tendencia preocupante: Grok-2 utilizó 30 000 GPUs, pero Grok-3 utilizará 100 000 de estos. Este aumento en capacidad está impulsado por la competencia directa con su principal rival, ChatGPT-4, lo que obliga a xAI a seguir expandiendo su infraestructura sin evaluar el impacto ambiental.

En regiones donde el agua es un recurso escaso, como ciertas partes de América Latina, este crecimiento exponencial del uso de la IA puede tener consecuencias devastadoras. Recientemente, en Chile, se paralizó la construcción de un centro de datos de Google debido a preocupaciones sobre el uso excesivo de agua en la comuna de Cerrillos, en Santiago. La falta de autorregulación es alarmente: Google planeaba usar 168 litros de agua por segundo en un área que está afectada por sequía.

En suma, esta situación plantea una pregunta urgente: ¿Qué futuro nos espera ante el avance de las grandes compañías de IA como OpenAI o nuevas empresas como xAI? En Latinoamérica, donde la regulación ambiental en torno a la IA es débil o inexistente, y donde los defensores del medioambiente enfrentan persecuciones constantes, la expansión de centros de datos puede convertirse en un nuevo desafío frente a la actual crisis hídrica.

Isabella Riva

Licenciada en Linguística y Literatura con mención en Literatura Hispánica de la PUCP. Redactora periodística en Departe.

Autor


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *