Impacto Ambiental IA: Realidad y Mitos

El video de YouTube de Gustavo Entrala explora el consumo de recursos de la inteligencia artificial (IA), abordando las preocupaciones populares sobre su huella energética y de agua.

La Inteligencia Artificial (IA) está transformando rápidamente diversos aspectos de nuestra sociedad, pero su rápido avance también ha generado inquietudes sobre su impacto ambiental. Circulan narrativas que sugieren un consumo desorbitado de recursos, como que cada interacción con un modelo de lenguaje consume grandes cantidades de agua y electricidad. Sin embargo, es fundamental analizar estas afirmaciones para comprender la verdadera huella de la IA, distinguiendo entre el consumo a gran escala de los centros de datos y el impacto individual de su uso diario. Este informe busca arrojar luz sobre estas cuestiones, desgranando el consumo de las grandes infraestructuras de IA y comparándolo con actividades cotidianas para ofrecer una perspectiva más clara y fundamentada.

Desvelando la Verdad sobre el Consumo de la IA

En el debate sobre el impacto ambiental de la IA, a menudo surgen afirmaciones alarmantes sobre el consumo de recursos. Títulos y memes han popularizado la idea de que una simple pregunta a ChatGPT podría equipararse al gasto de medio vaso de agua o a un consumo eléctrico diez veces superior al de una búsqueda en Google. Estas narrativas, aunque impactantes, requieren un examen más detenido para determinar su veracidad. El objetivo es discernir si la preocupación por la sequía o la necesidad de limitar el uso de la IA se justifica plenamente basándose en estas suposiciones iniciales.

El Gigantesco Consumo de las Factorías de IA

Las infraestructuras de IA a gran escala, conocidas como factorías de IA o centros de datos, son, sin duda, los mayores consumidores de recursos dentro del ecosistema de la inteligencia artificial. Proyectos como Colossus de XAI y Stargate en Texas ilustran la magnitud de esta demanda.

Colossus: Un Centro de Datos de Escala Impresionante

La factoría Colossus, de XAI (Elon Musk) en Memphis, Tennessee, es un ejemplo contundente del consumo de recursos a nivel macro. Actualmente, alberga más de 200.000 unidades de procesamiento gráfico (GPU) Nvidia H100, con planes ambiciosos de expandirse a un millón de GPUs para finales de 2025. Esta expansión incluirá los más recientes chips Blackwell, que, a pesar de ser más eficientes, suponen un aumento global en el consumo debido a su mayor potencia.

El consumo eléctrico actual de Colossus se sitúa en 150 megavatios (MW) de potencia continua, una cifra equivalente al consumo eléctrico de aproximadamente 450.000 hogares en España. Con la expansión proyectada, el consumo alcanzará los 300 MW, lo que representa la demanda energética de unas 900.000 familias. En términos de agua, Colossus fue diseñado para consumir alrededor de un millón de galones de agua al día (casi 4 millones de litros). Para gestionar esta demanda, XAI está construyendo una planta de tratamiento de aguas residuales con capacidad para procesar 50 millones de litros diarios, una cantidad que equivaldría a llenar 20 piscinas olímpicas cada día solo para mantener la refrigeración de los chips. A modo de comparación, los 150 MW de Colossus equivalen a 3 millones de laptops funcionando ininterrumpidamente.

Proyecto Stargate: Un Consumo que Impacta a Nivel Nacional

Otro proyecto de gran envergadura es Stargate, en Texas. Cuando su primera fase esté operativa a finales de 2026, contará con una capacidad de 1,2 gigavatios (GW). Además, ha solicitado a las centrales eléctricas locales una capacidad de 5 GW, lo que representa aproximadamente el 20% del consumo total de electricidad de España. Estas cifras demuestran el impacto significativo que tienen estos centros de datos en las redes eléctricas y en los recursos hídricos de las regiones donde se asientan.

La Huella Global de los Centros de Datos

Según la Agencia Internacional de Energía (AIE), los centros de datos consumieron alrededor de 415 teravatios hora (TWh) de electricidad en 2024, lo que representa el 1,5% del consumo eléctrico mundial. La AIE pronostica que esta cifra se duplicará para 2030, alcanzando casi 1.000 TWh, en gran parte impulsada por la creciente demanda de IA generativa. Esta proyección para 2030 equivale al consumo total actual de Japón. La concentración de estos centros de datos genera una presión considerable en las redes eléctricas locales; en algunos estados de EE. UU. superan el 20% del consumo y en Irlanda, el 33%. A nivel global, el consumo de agua proyectado para la IA podría llegar a los 6.600 millones de metros cúbicos anuales para 2027.

El Consumo Individual de la IA: Una Perspectiva Micro

Para entender el consumo de la IA a nivel de usuario, es crucial diferenciar entre sus dos fases principales: el entrenamiento y la inferencia.

Fase de Entrenamiento: Un Coste Único

La fase de entrenamiento es el proceso inicial de creación de un modelo de IA. Entrenar un modelo como GPT-3 consumió aproximadamente 1,2 megavatios hora de electricidad y 700.000 litros de agua. Si bien estas cifras son significativas, constituyen un coste único asociado a la creación del modelo, no a su uso continuado.

Fase de Inferencia: El Uso Diario

La fase de inferencia es cuando el modelo ya entrenado responde a las consultas de los usuarios, lo que representa entre el 60% y el 90% del consumo total de energía de los modelos de IA.

Consumo de una Consulta a ChatGPT

Las estimaciones sobre el consumo eléctrico de una consulta a ChatGPT han evolucionado. Aunque en 2023 se sugerían 3 vatios hora por consulta, estudios recientes indican que esta cifra podría ser tan baja como 0,3 vatios hora debido a la mejora en la eficiencia de las GPUs. Esto significa que una consulta a ChatGPT y una búsqueda en Google consumen actualmente una cantidad de energía similar. Para ponerlo en perspectiva, 0,3 vatios hora es la energía aproximada que se necesita para mantener encendida una bombilla LED durante unos pocos minutos.

En cuanto al consumo de agua, investigaciones previas estimaban que una consulta a GPT-4 para generar un correo electrónico de 100 palabras requeriría unos 519 mililitros. Sin embargo, análisis más recientes sugieren que ChatGPT consume aproximadamente medio litro de agua por cada 300 consultas. Esto implica que cada consulta individual utiliza alrededor de 1,5 mililitros, mucho menos que medio vaso de agua, equiparable a media cucharada de té.

IA en Comparación con Actividades Cotidianas

Para contextualizar el impacto individual de la IA, resulta útil compararlo con el consumo de recursos de actividades diarias:

  • Una ducha de 5 minutos consume entre 50 y 100 litros de agua, lo que equivaldría a entre 10.000 y 20.000 consultas a ChatGPT.
  • Preparar una taza de café requiere aproximadamente 0,1 kWh de electricidad, similar a unas 333 consultas a ChatGPT.
  • Tostar pan consume alrededor de 0,04 kWh, o unas 133 consultas.
  • Una laptop funcionando durante 8 horas de trabajo consume entre 0,4 y 0,8 kWh, comparable a entre 1.350 y 2.650 consultas a ChatGPT.
  • La producción de una hamburguesa demanda aproximadamente 2.500 litros de agua. Para consumir el mismo volumen de energía, necesitaríamos hacer medio millón de consultas a ChatGPT.
  • Una hora de streaming consume alrededor de 0,3 kWh de electricidad, el equivalente a unas 667 consultas a ChatGPT.

Al sumar el consumo diario de agua por persona (ducha, café, 8 horas de laptop, una hamburguesa y 1 hora de streaming), se estima en aproximadamente 2.550 litros. Estas comparaciones revelan que el impacto individual de usar la IA es, de hecho, sorprendentemente pequeño en relación con nuestras actividades cotidianas.

Desafíos y Compromisos de la Industria

A pesar del bajo impacto individual, el crecimiento exponencial de la IA a nivel global plantea desafíos significativos. La escala acumulativa de cientos de millones de usuarios realizando miles de millones de consultas diarias hace que el impacto general sea considerable. La ubicación de los centros de datos es crucial, ya que el impacto ambiental no solo depende del consumo de energía, sino también de cómo se genera esa energía (fuentes renovables vs. carbón) y si los centros de datos se sitúan en regiones con escasez de agua.

Las principales empresas tecnológicas como GoogleMicrosoft y Meta han asumido compromisos ambientales serios. Estos incluyen objetivos de equilibrio hídrico positivo, que buscan devolver más agua de la que consumen, y el uso de energía 100% renovable. Además, se están explorando innovaciones como centros de datos submarinos por parte de Microsoft y sistemas de refrigeración que utilizan agua reciclada o aire exterior implementados por Google. Los avances en la eficiencia del hardware (GPUs) y del software (nuevas arquitecturas de modelos) también están contribuyendo a reducir el consumo por vatio.

Reflexión sobre el Consumo de la IA

Las cifras alarmantes sobre el consumo de la IA a menudo magnifican los riesgos de las nuevas tecnologías, ya que se presentan como datos descomunales difíciles de interpretar. Aunque el impacto individual es mínimo, el impacto a gran escala de los centros de datos es innegable, concentrando enormes demandas de recursos en áreas específicas y afectando a las comunidades locales. Esto plantea preguntas legítimas sobre la distribución equitativa de los beneficios y las cargas asociadas con la IA. Es importante considerar que, incluso durante la duración de un video informativo, el dispositivo del espectador y el servidor de streaming consumen electricidad, con una huella hídrica que podría equivaler a la de un par de cafés, lo que invita a una reflexión más amplia sobre la proporcionalidad del consumo en la era digital.

Preguntas y Respuestas Frecuentes sobre el Consumo de la IA

¿Es cierto que cada consulta a ChatGPT consume medio vaso de agua?

No, las estimaciones más recientes indican que cada consulta a ChatGPT consume alrededor de 1,5 mililitros de agua, lo que es mucho menos que medio vaso. Esta cantidad equivale aproximadamente a media cucharada de té.

¿La IA consume más electricidad que una búsqueda en Google?

Actualmente, el consumo eléctrico de una consulta a ChatGPT es muy similar al de una búsqueda en Google, debido a la mejora en la eficiencia de las GPUs y la optimización de los modelos. Antes, sí era mayor, pero la tecnología ha avanzado.

¿Cuál es el mayor consumidor de recursos en la IA?

Los mayores consumidores de recursos son las grandes infraestructuras de IA, como los centros de datos. Estos concentran un enorme consumo de electricidad y agua para el entrenamiento y la inferencia a gran escala de los modelos.

¿Las empresas tecnológicas están haciendo algo para reducir el impacto ambiental de la IA?

Sí, grandes empresas como GoogleMicrosoft y Meta han asumido compromisos ambientales, incluyendo el uso de energía 100% renovable, objetivos de equilibrio hídrico positivo y la implementación de tecnologías de refrigeración más eficientes.

¿El impacto individual del uso de la IA es significativo?

En comparación con actividades cotidianas como ducharse, preparar café o incluso ver streaming, el impacto individual del uso de la IA es sorprendentemente bajo. El problema radica en el impacto acumulado de millones de usuarios y la concentración de demanda en los centros de datos.

Fuente: Gustavo Entrala