Tecnología y urbanismo
Contaminación digital

Huella Ecológica e Impacto Ambiental de la Inteligencia Artificial

La Inteligencia Artificial (IA) ha revolucionado y cambiado el mundo. Con aplicaciones en campos tan diversos como la medicina, la ingeniería, la industria o el entretenimiento, entre otros, nuestra relación con las máquinas ya no será nunca más la misma. Sin embargo, el creciente uso de la IA genera una nueva preocupación por su alto consumo energético y su impacto ambiental.

Maestría en Desarrollo Sustentable BioArquitectura, NeuroArquitectura, Hábitat Saludable y Sustentable

La IA es una rama de la informática que se enfoca en la creación de sistemas y programas capaces de realizar tareas que requieren de inteligencia humana, como el reconocimiento de patrones, el aprendizaje, la toma de decisiones, entre otras cosas. Estos sistemas utilizan algoritmos y modelos matemáticos para simular la forma en la que los seres humanos piensan y toman decisiones. La IA se emplea en una amplia variedad de aplicaciones, como la automatización de procesos, el análisis de datos, la atención al cliente, entre otros (ChatFlash).

La IA es uno de los temas más candentes actualmente, fuera y dentro del ámbito tecnológico. Desde la irrupción de la herramienta ChatGPT en 2022, la IA generativa ha estado en el centro de todas las conversaciones, aumentando su popularidad exponencialmente y convirtiéndose en una aliada para muchas tareas del día a día. Si bien es una tecnología revolucionaria en muchos aspectos (permite la automatización de infinidad de procesos, la personalización de mensajes, la creación de contenidos originales, etc.), también demanda una enorme cantidad de recursos para su desarrollo, implementación y funcionamiento.

En términos generales, la huella ecológica de la IA abarca diversos aspectos, desde la energía requerida para alimentar los centros de datos donde se ejecutan los algoritmos hasta la extracción de materiales para la fabricación de dispositivos hardware especializados. Estos recursos incluyen electricidad, agua, metales y otros materiales

Uno de los mayores consumidores de recursos dentro del ámbito de la IA es el entrenamiento de modelos de deep learning y machine learning, que implica procesar enormes conjuntos de datos a través de algoritmos complejos. Esto supone la inversión de una gran cantidad de energía y tiempo de computación, lo que se traduce en emisiones de carbono significativas, especialmente cuando se utilizan servidores y sistemas de refrigeración intensivos.

Sabemos que la IA consume mucha agua y energía. Aunque analiza datos velozmente, y puede aportar soluciones al ambiente, los centros de datos aumentan las emisiones de dióxido de carbono (CO2) y otros gases de efecto invernadero (GEI). Según un informe de Data Centre World, el gasto energético de los centros de datos es enorme. En la actualidad se calcula que estos centros suponen entre el 2% y el 3% del consumo energético a nivel mundial, creciendo el doble cada año, y se prevé que alcance el 4% en 2030.

Mirá también: Contaminación digital: el gran impacto ambiental que todos pasamos por alto

Tomemos como ejemplo el caso de Google, que quiso abrir un centro de datos en Quilicura, Chile, que ha sido bloqueado por el excesivo uso de agua. La Justicia chilena paralizó la apertura del centro de datos en Cerrillos, Santiago, por una cuestión de impacto climático, dando la razón a los demandantes de esa comunidad. El plan de Google era invertir 200 millones de euros, sin embargo, este centro de datos provocó las críticas locales por el enorme uso de agua que se iba a realizar. Según los cálculos realizados, el centro de datos iba a necesitar 168 litros de agua potable por segundo para enfriar los servidores, o sea 14.515.200 de litros por día.

En la situación de sequía que vive Chile, este consumo de agua se ha estimado desproporcionado. Tras 15 años de sequía y con racionamientos de agua por parte del Gobierno, esta construcción no encajaba. La justicia chilena le reclamó a Goggle "incorporar la consideración de los efectos del cambio climático en la evaluación del componente hídrico (Acuífero Central de Santiago), tomando en cuenta una posible modificación del sistema de enfriamiento de los servidores asociados al proyecto".

Una de las propuestas de Google fue sustituir el sistema de refrigeración basado en el agua por uno basado en aire, que consumiría más energía pero menos agua de los pozos que explotan el acuífero. Pero el tribunal no ha sido convencido para dar su aprobación, incluso con estos cambios.

Medir el impacto ambiental es complejo, porque, en primer lugar, la IA está siendo desarrollada por multitud de empresas y aplicada en infinidad de sectores; y en segundo lugar, porque existe cierta opacidad sobre este tipo de avances tecnológicos (las grandes compañías no están obligadas a rendir cuentas ni dar información sobre el consumo de energía y recursos que implica la IA). 

Pese a ello, existen diversos estudios que ofrecen algunos datos: según el informe "Global Cloud Computing Energy and Water Impact" de la Universidad de Nuevo México, un centro de datos promedio puede consumir entre 1.7 y 2.2 millones de litros de agua por día, principalmente para la refrigeración, solo para el entrenamiento de una IA como ChatGPT o similar

Fuente: Unsplash

Según datos de la Asociación de Maquinaria Computacional (ACM), las tecnologías de la información y comunicación (TIC) produjeron en 2021 entre el 1.8% y el 3.9% de las emisiones mundiales de carbono, una cifra que con toda seguridad habrá aumentando en los últimos años. Solo en Estados Unidos, los centros de datos suponen el 1.8% del consumo eléctrico del país. Según la estimación realizada en 2020 por Payal Dhar, y publicada en la prestigiosa revista Nature, la huella de carbono de entrenar a un solo gran modelo lingüístico como ChatGPT equivale a unas 300 toneladas de CO2 emitido (equivalente a la que podría emitir un español promedio en 60 años de vida).

Uno de los primeros informes que se realizaron sobre la huella de la IA, firmado por un equipo de la Universidad de Massachusetts Amherst (EE.UU.), señaló que entrenar un gran modelo de lenguaje natural, como ChatGPT, produce las mismas emisiones de CO2 a la atmósfera que 125 vuelos de ida y vuelta de Nueva York a Beijín. Otro estudio de la Universidad de Copenhague (Dinamarca) reveló que en una sola sesión de entrenamiento se utiliza el equivalente al consumo energético de un año de 126 hogares daneses y se emite la misma cantidad de CO2 que 700.000 kilómetros de conducción.

Científicos de la Universidad de California en Berkeley (EE.UU.), publicaron en 2021 algunas estimaciones sobre el consumo energético de ChatGPT-3: este modelo de IA, especialmente diseñado para dar respuestas a preguntas de todo tipo hechas con lenguaje natural, necesitó 1.287 GW/h de energía, equivalente al consumo de 120 hogares medios estadounidenses -muy similar al europeo- durante un año. Y esto solo en el entrenamiento y hasta 2021. Por propio diseño, los modelos de IA necesitan actualizarse con información y analizar datos nuevos continuamente con el fin de proporcionar la mejor respuesta posible.

Desde 2022, la IA generativa, que puede producir texto, imágenes u otros datos, ha experimentado un rápido crecimiento, incluido el ChatGPT de OpenAI. El entrenamiento de estas herramientas de IA requiere alimentar los modelos con una gran cantidad de datos, un proceso que consume mucha energía. Hugging Face, una empresa de desarrollo de IA con sede en Nueva York, informó de que su herramienta de IA multilingüe generadora de texto consumió unos 433 megavatios-hora (MWh) durante el entrenamiento, suficiente para abastecer de energía a 40 hogares estadounidenses medios durante un año.

Mirá también: Inteligencia Artificial ¿Aliada o enemiga frente a la crisis climática?

La misma Hugging Face calculó que que el entrenamiento de BLOOM (su propio modelo de lenguaje) generó 25 toneladas métricas de emisiones de CO2, como apunta un artículo del Instituto Tecnológico de Massachusetts (MIT) (EE.UU.). Pero, según los investigadores, esa cifra se duplicó cuando se tuvieron en cuenta las emisiones producidas por la fabricación del equipo informático utilizado para entrenarlo, la infraestructura computacional más amplia y la energía requerida para ejecutar BLOOM después de entrenarlo.

Y la huella energética de la IA no termina con el entrenamiento. El análisis de Alex de Vries, de la Universidad Libre de Ámsterdam (Países Bajos), muestra que cuando la herramienta se pone a trabajar -generando datos basados en instrucciones-, cada vez que genera un texto o una imagen, también utiliza una cantidad significativa de potencia de cálculo y, por tanto, de energía. 

Por ejemplo, el funcionamiento de ChatGPT podría insumir 564 MWh de electricidad al día. Aunque empresas de todo el mundo trabajan en mejorar la eficiencia del hardware y el software de IA para que la herramienta consuma menos energía, sabemos que un aumento de la eficiencia de las máquinas suele incrementar la demanda. Al final, los avances tecnológicos conducirán a un aumento neto del uso de recursos, un fenómeno conocido como la paradoja de Jevons.

Fuente: Unsplash

"El resultado de hacer estas herramientas más eficientes y accesibles puede ser que simplemente permitamos más aplicaciones de las mismas y que más gente las utilice", afirma de Vries. Google, por ejemplo, ha incorporado la IA generativa a su servicio de correo electrónico y está probando a potenciar su motor de búsqueda con IA. Actualmente, la empresa procesa hasta 9.000 millones de búsquedas al día. Basándose en estos datos, de Vries calcula que si cada búsqueda de Google utilizara IA, necesitaría unos 29.2 teravatios-hora (TWh) de energía al año, lo que equivale al consumo anual de electricidad de Irlanda.

Es poco probable que este escenario extremo se produzca a corto plazo debido a los elevados costes asociados a los servidores de IA adicionales y a los cuellos de botella en la cadena de suministro de servidores de IA, afirma de Vries. Pero se prevé que la producción de servidores de IA crezca rápidamente en un futuro próximo. Para 2027, el consumo mundial de electricidad relacionada con la IA podría aumentar entre 85 y 134 TWh anuales, según la proyección de la producción de servidores de IA. Esta cantidad es comparable al consumo anual de electricidad de países como los Países Bajos, Argentina y Suecia.

En este contexto, es fundamental conocer y considerar el impacto que tiene la IA en el ambiente. Algunas empresas ya están buscando soluciones para tratar de reducir las emisiones y el gasto de recursos, así como para mitigar las consecuencias ambientales de la puesta en marcha de este tipo de tecnologías. Y así tenemos lo que llaman IA Verde, que abordaremos en una próxima entrega.