Utilizar ChatGPT No es Malo para el Medio Ambiente (Argumento Principal)
Y un llamamiento a pensar seriamente en el cambio climático sin distraerse: Parte 2
Nota: Esta es la segunda parte de la introducción al tema.
Utilizar ChatGPT No es Malo para el Medio Ambiente: Argumento Principal
Por: Andy Masley
Emisiones
¿Cuál es la forma correcta de pensar sobre las emisiones de los LLM? Algo sospechoso que hacen muchas afirmaciones sobre los LLM es compararlos con objetos físicos del mundo real y sus emisiones. Cuando se habla del uso global de ChatGPT, se hacen muchas comparaciones con coches, aviones y hogares. Otro movimiento sospechoso es compararlos con actividades online habituales que normalmente no salen a relucir en las conversaciones sobre el clima (¿cuándo fue la última vez que oíste a un científico del clima mencionar las búsquedas en Google como una causa importante de las emisiones de CO2?) La razón por la que esto es sospechoso es que a la mayoría de la gente le faltan tres intuiciones clave:
Sin estas intuiciones, es fácil hacer que cualquier estadística sobre la IA parezca una catástrofe ridícula. Exploremos cada una de ellas.
Las escalas increíblemente pequeñas implicadas en el uso individual de LLMs
«Una pregunta ChatGPT consume 10 veces más energía que una búsqueda en Google»
Es cierto que una pregunta ChatGPT consume 10 veces más energía que una búsqueda en Google. ¿De cuánta energía se trata? Una buena primera pregunta es cuándo fue la última vez que oíste a un científico del clima mencionar la búsqueda en Google como una fuente importante de emisiones. Si alguien te dijera que ha hecho 1000 búsquedas en Google en un día, ¿tu primer pensamiento sería que el impacto climático debe ser terrible? Probablemente no.
Una búsqueda media en Google consume 0,3 vatios-hora (Wh) de energía. La pregunta media de ChatGPT utiliza 3 Wh (hago esta suposición aunque estemos algo a oscuras, explico por qué aquí), así que si eliges utilizar ChatGPT en lugar de Google, estás utilizando 2,7 Wh adicionales de energía.
¿Hasta qué punto debería preocuparte gastar 2,7 Wh? 2,7 Wh son suficientes para
Conducir un turismo a una velocidad constante durante 5 metros
Dedicar 3 minutos a leer esta entrada del blog. Si estás leyendo esto en un ordenador portátil y pasas 20 minutos leyendo el post completo, habrás consumido tanta energía como 6 avisos de ChatGPT. ¡ChatGPT podría escribir esta entrada del blog utilizando menos energía de la que tú empleas en leerla!
En Washington DC, donde vivo, el coste doméstico de 2,7 Wh es de 0,000432 $. El hogar medio de DC utiliza 350.000 veces más energía cada mes.
Si alguna vez has tomado un vuelo transatlántico, para igualar la energía que tú, como pasajero individual, utilizaste en ese único vuelo, tendrías que pedir al ChatGPT 3.500.000 preguntas. Eso son 120 preguntas cada día durante 80 años, o una pregunta cada 8 minutos que estés despierto durante toda tu vida.
Yo probablemente le pido a ChatGPT y a Claude unas 8 preguntas al día de media. A lo largo de un año de uso, esto consume la misma energía que el funcionamiento de un calefactor en mi habitación durante 2 horas en total. No 2 horas al día, sino el uso puntual de un único calefactor durante 2 horas.
Informar simplemente de una cantidad extremadamente pequeña de energía como múltiplo de otra puede llevar a malinterpretar la gravedad de un problema, porque es fácil que una cantidad extremadamente pequeña sea cientos o miles de veces mayor que la otra y aun así no sea lo suficientemente grande como para preocuparnos. Un reloj digital utiliza literalmente un millón de veces más energía que un reloj analógico. Podría escribir un largo artículo sobre cómo sustituir tu reloj por un reloj digital consume un millón de veces más energía que una forma de dar la hora, y que no podemos permitirnos un aumento tan drástico porque ya estamos en una emergencia climática, pero esto sería básicamente una mentira y te haría perder el tiempo preocupándote por algo que en realidad no tiene ninguna importancia para el clima. Considero que las comparaciones entre ChatGPT y las búsquedas en Google son básicamente equivalentes a esto.
Sentarse a ver 1 hora de Netflix tiene el mismo impacto sobre el clima que pedir 300 preguntas a ChatGPT. Sospecho que si anunciara en una fiesta que he hecho 300 preguntas a ChatGPT en 1 hora me acusarían de odiar la Tierra, pero si anunciara que he visto una hora de Netflix o que he recorrido 0,8 millas en mi sedán la reacción sería un poco distinta. Sería extraño que tuviéramos una gran conversación nacional sobre limitar el visionado de YouTube o no comprar nunca libros o evitar subir más de 30 fotos a la vez a las redes sociales por el bien del clima. Si esto ocurriera, los científicos del clima dirían con razón que el público se está atascando en minucias y no se está centrando en las grandes formas reales en que tenemos que actuar sobre el clima. Preocuparse por si deberías utilizar LLM es una distracción tan grande respecto a los problemas reales del cambio climático como preocuparse por si deberías detener el vídeo de YouTube que estás viendo 12 segundos antes por el bien de la Tierra.
La suscripción a ChatGPT cuesta 20 $/mes. Sería raro que OpenAI consumiera mucha más energía por cada usuario de la que puede permitirse. Como línea de base, deberíamos suponer que ChatGPT utiliza más o menos la misma energía que otros servicios de Internet por los que pagamos 20 $/mes. Si consumiera mucho más, OpenAI tendría que subir el precio.
Pongamos un caso extremo e imaginemos que la razón por la que no quieres utilizar LLMs es que si todo el mundo utilizara LLMs en lugar de Google para cada búsqueda, esto consumiría demasiada energía. Hay 8.500.000.000 de búsquedas en Google al día. Imaginemos que sustituimos cada búsqueda en Google por una búsqueda en ChatGPT. Eso nos lleva de un consumo energético diario de 2.550.000.000 vatios-hora (Wh) a 25.500.000.000 Wh, es decir, 22.950.000.000 Wh adicionales, o 23 gigavatios-hora (GWh). La demanda global diaria de energía de Internet es de 2.200 GWh, por lo que esto aumentaría la demanda global diaria de energía de Internet en un 1%. Por tanto, un cambio global de Google a ChatGPT sería aproximadamente lo mismo que aumentar en un 1% la población mundial que utiliza Internet. Si supieras que el año que viene un 1% más de personas tendrán acceso a Internet en todo el mundo, ¿hasta qué punto te preocuparía eso por el clima? El año pasado la tasa de crecimiento real de usuarios de Internet fue del 3,4%.
En mi experiencia, utilizar ChatGPT es mucho más útil que una búsqueda en Google, hasta el punto de que prefiero utilizarlo a buscar en Google diez veces de todos modos. A menudo puedo encontrar cosas que busco mucho más rápido con una sola búsqueda en ChatGPT que con varias búsquedas en Google. He aquí una búsqueda que hice pidiéndole que resumiera lo que sabemos sobre las fuentes de energía actuales y futuras utilizadas para los centros de datos estadounidenses. También me ahorra mucho tiempo valioso en comparación con buscar diez veces en Google.
Cuánta gente utiliza realmente los LLM
Muchas quejas sobre la energía total utilizada por los LLM («ChatGPT utiliza más energía que 20.000 hogares», etc.) no tienen sentido si tenemos en cuenta el número de personas que utilizan los LLM. Al considerar el uso de los LLM, no podemos fijarnos sólo en sus emisiones totales. Tenemos que considerar cuántas personas las utilizan. Si alguien quisiera justificar la compra de un jet privado, podría señalar correctamente que Google como empresa produce muchas más emisiones que un solo jet, por lo que comprar el jet no es gran cosa. Esto es una tontería, porque Google tiene miles de millones de usuarios y el jet tiene uno, y Google es muy eficiente en cuanto a la energía consumida por usuario. Decir cuánta energía consume ChatGPT en su conjunto sin dividir por el número de usuarios es similar a comparar Google con el jet. Lo que importa es la energía por usuario, no sólo la energía total.
He aquí algunos ejemplos para ilustrar el punto:
«ChatGPT utiliza la misma energía que 20.000 hogares estadounidenses».
En el momento de escribir estas líneas, ChatGPT tiene 300.000.000 de usuarios diarios y 1.000.000.000 de mensajes diarios contestados. Es la aplicación más descargada del mundo. Imaginemos que puedes chasquear los dedos y crear un hogar estadounidense más, con todas sus demandas energéticas y su impacto medioambiental. Este hogar estadounidense es especial. Sus habitantes tienen una afición: dedicar todo su tiempo a escribir respuestas muy detalladas a correos electrónicos. Disfrutan haciéndolo y no paran nunca, y se les da tan bien que 15.000 personas les envían correos electrónicos todos los días, cada persona enviando una media de 3,3 correos electrónicos, lo que hace un total de 50.000 correos electrónicos al día, o 1 correo electrónico cada 2 segundos las 24 horas del día. Parece que la gente encuentra útiles sus respuestas, porque el índice de uso sigue aumentando con el tiempo. ¿Elegirías chasquear los dedos y crear este hogar, aunque tenga los impactos climáticos de un hogar estadounidense normal adicional? Parece una compensación claramente buena. ¿Y si tuvieras la opción de hacerlo una segunda vez, de modo que ahora 50.000 mensajes más pudieran ser contestados por un segundo hogar cada día? De nuevo, esto parece merecer las emisiones. Si sigues chasqueando los dedos hasta satisfacer la demanda de respuestas a sus mensajes, habrías creado 20.000 nuevos hogares estadounidenses y tendrías 1.000 millones de mensajes contestados al día. 20.000 hogares estadounidenses es aproximadamente el tamaño de la ciudad de Barnstable, en Massachusetts:
Si apareciera en América una versión adicional de Barnstable Massachusetts, ¿cuánto te preocuparía eso por el clima? Esto supondría un aumento de la población estadounidense del 0,015%. ¿Y si descubrieras que todos los que viven en la nueva ciudad pasan cada momento que están despiertos enviando al mundo párrafos de texto específico extremadamente útil sobre todos y cada uno de los conocimientos humanos y siguen recibiendo peticiones de más? De todos los lugares e instituciones de EEUU que deberíamos recortar para ahorrar emisiones, ¿deberíamos empezar por impedir que esa ciudad creciera?
Creo que la conversación sobre el uso de la energía y ChatGPT a veces deja de lado que es la aplicación más descargada del mundo . Un titular que dijera «La app más descargada del planeta Tierra consume ahora tanta energía como la ciudad de Barnstable» no parece chocante en absoluto.
«Entrenar un modelo de IA emite tanto como 200 vuelos de avión de Nueva York a San Francisco».
Esta cifra sólo se aplica realmente a nuestros modelos de IA más grandes, como GPT-4. El uso de energía de GPT-4 en el entrenamiento fue equivalente a unos 200 vuelos de avión de Nueva York a San Fransisco. ¿Mereció la pena hacerlo?
Para entender este debate, es realmente útil comprender lo que significa entrenar realmente un modelo de IA. Escribir eso llevaría demasiado tiempo y no es el objetivo de este post, así que pedí a ChatGPT que describiera el proceso de entrenamiento en detalle. He aquí su explicación. Lo que es importante entender sobre el entrenamiento de un modelo como GPT-4 es
Es un coste único. Una vez que tienes el modelo entrenado, puedes retocarlo, pero ya está listo para usarse. No tienes que entrenarlo continuamente después ni por asomo con el mismo coste energético.
Es increíblemente complejo desde el punto de vista tecnológico. Entrenar el GPT-4 requirió 2 × 10²⁵ operaciones en coma flotante (cálculos sencillos como multiplicar, restar, multiplicar y dividir). Esto es 70 millones de veces más cálculos que granos de arena hay en la Tierra. OpenAI tuvo que conectar 25.000 GPUs de última generación, especialmente diseñadas para IA, para realizar estos cálculos durante un periodo de 100 días. Es de esperar que este proceso consuma mucha energía.
Nos dio un modelo que puede dar respuestas extremadamente largas, detalladas y coherentes a preguntas muy específicas sobre básicamente todo el conocimiento humano. Esto no es nada.
Rara vez es tan grande y requiere tanta energía. Sólo hay unos pocos modelos de IA tan grandes como el GPT-4. Muchas de las aplicaciones de IA que ves utilizan los resultados del entrenamiento de GPT-4 en lugar de entrenar sus propios modelos.
Es útil pensar si deshacerse de «200 vuelos de Nueva York a San Francisco» movería realmente la aguja del clima. Hay unos 630 vuelos entre Nueva York y San Francisco cada semana. Si OpenAI no entrenara la GPT-4, eso equivaldría aproximadamente a que no hubiera vuelos entre Nueva York y San Francisco durante unos 2 días. No son 2 días a la semana. Son 2 días en total. Incluso si hubiera que volver a entrenar el ChatGPT cada año (y recuerda que no es así), eso es menos del 1% de las emisiones de los vuelos entre estas dos ciudades estadounidenses concretas. ¿Cuánto de nuestro esfuerzo colectivo vale la pena para detener esto?
200 aviones pueden transportar unas 35.000 personas. Unas 20 veces esa cantidad de personas vuelan de todo el país a Coachella cada año. No hay 20 modelos de IA del mismo tamaño que el GPT-4, así que por el mismo coste de carbono podríamos detener todo progreso en IA avanzada durante una década o elegir no celebrar Coachella durante 1 año para que la gente no vuele a él. Esto no parece merecer la pena.
Para poner un número más concreto a la energía que costó entrenar al GPT-4, son unos 50 GWh. El GPT-4 fue entrenado para responder preguntas, así que para considerar el coste energético tenemos que tener en cuenta cuántas búsquedas hemos obtenido de ese uso energético del entrenamiento. Considero que el coste de formación es equivalente a comparar el coste de una camisa con la frecuencia con que te la vas a poner. Si una camisa cuesta 40 $ y está bien hecha para que sobreviva a 60 lavados, y otra camisa cuesta 20 $ pero está mal hecha para que sólo sobreviva a 10 lavados, entonces, aunque la primera camisa sea inicialmente más cara, en realidad cuesta 0,67 $ por uso, mientras que la segunda cuesta 2 $ por uso, por lo que, de alguna manera significativa, la primera camisa es en realidad más barata si tienes en cuenta cómo la usarás realmente, en lugar de fijarte sólo en la inversión inicial. Del mismo modo, el entrenamiento de GPT-4 puede parecer caro en términos de energía si no tienes en cuenta cuántos usuarios y búsquedas gestionará.
Una estimación muy aproximada basada en datos disponibles públicamente dice que hasta ahora se han realizado unos 50.000 millones de búsquedas en ChatGPT utilizando GPT-4. Esto significa que, hasta ahora, si incluimos el coste de formación en el coste energético total de las búsquedas en ChatGPT, añadimos 3 Wh/búsqueda a 50 GWh/50.000.000.000 búsquedas = 4 Wh/búsqueda. El coste de formación distribuido en cada búsqueda añade 1 vatio-hora de energía, por lo que aumenta el coste energético total de una búsqueda en ChatGPT en 3 Wh de energía por búsqueda en Google. Esto no parece significativo. Considera ahora que ChatGPT es sólo una de las cosas para las que se está utilizando GPT-4, otras cosas incluyen DuoLingo, Khan Academy, Be My Eyes, y GitHub Copilot X. Una vez que tienes en cuenta cuánto se está utilizando, el coste energético de entrenar GPT-4 parece increíblemente barato, de la misma manera que la camisa más cara inicialmente es globalmente más barata que la segunda.
Emisiones de otras actividades en línea
Cuando alguien te lanza una estadística con una gran cifra sobre un producto muy popular, debes tener cuidado con hasta qué punto entiendes realmente las magnitudes implicadas. En realidad, no estamos hechos para pensar en grandes números como éste, así que lo mejor que podemos hacer es compararlos con situaciones similares que nos den más contexto. Internet es ridículamente grande, complejo y utilizado por casi todo el mundo, por lo que deberíamos esperar que utilice una gran parte de nuestra energía total. Cualquier cosa que se utilice ampliamente en Internet vendrá acompañada de cifras llamativas sobre su consumo de energía. Si nos limitamos a mirar esas cifras en el vacío, es fácil hacer que cualquier cosa parezca una emergencia climática.
ChatGPT utiliza tanta energía como 20.000 hogares, pero Netflix declaró haber utilizado 450 GWh de energía el año pasado, lo que equivale a 40.000 hogares. La estimación de Netflix sólo incluye el uso de su centro de datos, que es sólo el 5% del coste energético total del streaming, por lo que el uso real de energía de Netflix está más cerca de los 800.000 hogares. Esto es sólo un sitio de streaming. En total, el streaming de vídeo representó el 1,5% de todo el consumo mundial de electricidad, o 375.000 GWh, o el consumo anual de energía de 33.000.000 de hogares. ChatGPT utiliza la misma energía que Barnstable Massachusetts, mientras que el streaming de vídeo utiliza la misma energía al año que toda Nueva Inglaterra, el estado de Nueva York, Nueva Jersey y Pensilvania juntos. El streaming de vídeo consume 1600 veces más energía que ChatGPT, pero no oímos hablar tanto de ello porque es una parte mucho más normal de la vida cotidiana. 20.000 hogares puede parecer una cifra disparatada cuando la comparas con tu vida individual, pero es increíblemente pequeña en comparación con el uso de energía en Internet.
A continuación se indica cuántos hogares estadounidenses consumen globalmente la energía que consumen las distintas actividades en línea, según los cálculos que he realizado con la información disponible, más una ciudad estadounidense equivalente que consume la misma energía. He tenido en cuenta tanto la energía utilizada en los centros de datos como la energía utilizada en cada dispositivo individual. Hay grandes barras de error, pero las proporciones aproximadas son correctas.
11.000 hogares - Barre, VT - Google Maps
20.000 hogares - Barnstable MA - ChatGPT
23.000 hogares - Bozeman, MT - Fortnite
150.000 hogares - Cleveland, OH - Zoom
200.000 hogares - Worcester, MA - Spotify
800.000 hogares - Houston, TX - Netflix
1.000.000 de hogares - Chicago, IL - YouTube
¿Significa esto que debemos dejar de utilizar Spotify o el streaming de vídeo? No. Recuerda la norma de que no debemos limitarnos a reducir los mayores emisores sin tener en cuenta tanto el valor del producto como cuántas personas lo utilizan. Cada transmisión individual de Spotify utiliza una cantidad ínfima de energía. La razón por la que es una parte tan importante de nuestro presupuesto energético es que ¡mucha gente utiliza Spotify! Lo que importa a la hora de considerar qué reducir es la energía utilizada en comparación con la cantidad de valor producida, y otras opciones para obtener el mismo servicio. La energía necesaria para transmitir una canción de Spotify es mucho menor que la necesaria para producir y distribuir físicamente CD, casetes y discos de música. Sustituir los procesos físicos que consumen mucha energía por opciones digitales es parte de la razón por la que las emisiones de CO2 por ciudadano estadounidense se han reducido en más de una cuarta parte desde su máximo en la década de 1970:
Si la gente va a escuchar música, deberíamos preferir que lo haga mediante streaming en lugar de comprar objetos físicos. Decir simplemente que Spotify utiliza la misma energía que una ciudad sin tener en cuenta el número de usuarios, los beneficios que obtienen del servicio o la eficiencia energética que tendrían otras opciones para escuchar música es extremadamente engañoso. Señalar que ChatGPT utiliza la misma energía que 20.000 hogares sin añadir ningún otro detalle es igual de engañoso.
ChatGPT y aplicaciones similares no son la razón por la que el uso total de energía de la IA está aumentando tanto
Si todo esto es cierto, ¿por qué hay tantas historias sobre centros de datos de IA que estresan las redes energéticas locales? Hay historias de reapertura de plantas de carbón para satisfacer las demandas de energía de los centros de datos.
El uso energético de la IA va a ser un problema masivo en los próximos 5 años. Las proyecciones dicen que en 2030 los centros de datos estadounidenses podrían consumir el 9% de la energía del país (actualmente consumen el 4%, sobre todo debido a Internet y no a la IA). A nivel mundial, los centros de datos podrían pasar de utilizar el 1% de la red mundial de energía al 21% de la red en 2030.
Mucha gente ve estas estadísticas y asume que la mayor parte de ese aumento de energía debe provenir de personas individuales que utilizan chatbots LLM, porque esa es su principal exposición a la IA y donde se está utilizando. ChatGPT pareció aparecer de la nada, y su rápido ascenso ha coincidido con el rápido aumento del uso energético de los centros de datos de IA, por lo que seguramente es uno de los principales culpables.
Esto es incorrecto.
Los individuos que utilizan LLM como ChatGPT, Claude y Gemini sólo representan colectivamente alrededor del 3% del uso total de energía de la IA después de amortizar el coste del entrenamiento. Obtuve esta cifra de un cálculo aproximado. No he podido encontrar datos más fiables al respecto, pero si tú puedes y crees que mis cifras no son correctas, ¡házmelo saber! Esto entra en materia, así que si aceptas esta cifra, no dudes en saltártela.
Cálculo aproximado del porcentaje de uso de energía de la IA por aplicaciones similares a ChatGPT
ChatGPT recibe de ~1.000 millones de consultas/día. Todos los demás chatbots reciben alrededor de ~300-500 millones de consultas/día (estimación combinada). Total ≈ 1.300-1.500 millones de consultas/día. Una consulta LLM típica (como ChatGPT) consume unos 2,9 Wh por consulta. Energía diaria utilizada en las consultas del chatbot LLM: 1.300 millones de consultas × 2,9 Wh/consulta ≈ 3.770 MWh/día. Energía de inferencia anual: 3.770 MWh/día × 365 días ≈ 1,38 TWh/año. Para amortizar el coste de la formación, tenemos que conocer el coste energético total de la formación de todos los modelos más populares que se utilizan: GPT-3 (1,3 GWh), GPT-4 (~5 GWh), Gemini (~3 GWh), Claude (~0,5 GWh), DeepSeek (~1 GWh), otros misc (~1 GWh): entrenamiento total ≈ ~11 GWh. Supongamos 2 años de vida útil por modelo → amortización anual ≈ 5,5 GWh/año (0,0055 TWh/año). Energía de entrenamiento ≈ 0,0055 TWh/año, insignificante comparada con la energía utilizada en los prompts (menos del 1%). Avisos (1,38 TWh) + entrenamiento (0,0055 TWh) ≈ ~1,4 TWh/año.
Los centros de datos globales de IA utilizaron unos 40-50 TWh/año en 2024-2025. Supongamos 50 TWh/año como estimación redonda para todas las cargas de trabajo de IA a nivel mundial. Cuota de chatbot de consumo = (1,4 TWh / 50 TWh) × 100% ≈ 2,8%. Con un margen de incertidumbre, la cuota de chatbot es de ~2-5%, muy probablemente en torno al 3%.
Si crees que esto es incorrecto, me encantaría saberlo en los comentarios o por correo electrónico y actualizarlo en consecuencia.
El 97% de la energía total utilizada por la IA a finales de 2024 no está siendo utilizada por ChatGPT o aplicaciones similares, sino por otros servicios. ¿Cuáles son esos servicios? Los datos reales sobre qué servicios consumen cuánta energía son confusos, pero las actividades que consumen más energía son más o menos por este orden:
Sistemas de Recomendación - Motores de recomendación de contenidos y modelos de personalización utilizados por plataformas de streaming, sitios de comercio electrónico, redes sociales y redes de publicidad online.
Análisis empresarial e IA predictiva - La IA se utiliza en entornos empresariales para el análisis de datos, la previsión y el apoyo a la toma de decisiones.
Búsqueda y orientación de anuncios - Los algoritmos de aprendizaje automático que hay detrás de los motores de búsqueda web y las redes de publicidad en línea.
Visión por ordenador - Tareas de IA que implican el análisis de imágenes y vídeos, a menudo denominada visión por ordenador. Incluye modelos de clasificación de imágenes, detección de objetos, reconocimiento facial, análisis de contenido de vídeo, diagnóstico de imágenes médicas y moderación de contenidos (marcar automáticamente imágenes/vídeos inapropiados). Algunos ejemplos son los algoritmos de reconocimiento facial utilizados en el etiquetado de fotos y la vigilancia, la detección de objetos en los sistemas de conducción autónoma de automóviles (aunque la inferencia para los vehículos autónomos se ejecuta en gran medida a bordo, no en los centros de datos, el entrenamiento de esos modelos se basa en los centros de datos), y los modelos de visión que impulsan servicios como Google Lens o la búsqueda de productos basada en imágenes de Amazon.
IA de voz y audio: sistemas de IA que procesan el lenguaje hablado o las señales de audio. Los ejemplos más destacados son los asistentes de voz y los sistemas de reconocimiento de voz, como Alexa de Amazon, Google Assistant, Siri de Apple y los servicios de dictado de voz a texto.
ChatGPT y otros servicios similares no son la razón por la que se ha disparado el uso de energía de la IA. Las aplicaciones de IA se utilizan ahora en casi todo lo que hacemos y aumentan el coste energético total de Internet. Aunque convencieras a todas y cada una de las personas que contribuyeron a enviar los 1.500 millones de avisos que los chatbots recibieron hoy de que dejaran de utilizar ChatGPT para siempre, esto apenas arañaría la superficie del uso de energía de la IA. ChatGPT no es la razón por la que se están construyendo esas centrales eléctricas adicionales.
Una forma divertida de intuir esto es comparar cuántos hogares puede alimentar una central de carbón frente a cuántos hogares está utilizando ChatGPT. El uso de energía comunicado implica que ChatGPT consume aproximadamente tanta energía como 20.000 hogares estadounidenses. Una planta de carbón estadounidense media genera energía suficiente para 80.000 hogares estadounidenses al día. Esto significa que aunque OpenAI decidiera alimentar cada una de sus mil millones de consultas diarias de ChatGPT totalmente con carbón, todas esas consultas juntas sólo tendrían que consumir la cuarta parte de una central de carbón. ChatGPT no es la razón por la que se están abriendo nuevas plantas de carbón para alimentar los centros de datos de IA.
La estadística de que los centros de datos supondrán el 9% de EE.UU./el 21% de la red energética mundial en 2030 también se malinterpreta mucho. La gente a menudo ve estas cifras en artículos sobre IA y asume que todo ese aumento procederá de la IA. Esto no es así:
Incluso el artículo del que he sacado este gráfico se titula «LaIA impulsará un aumento del 165% en la demanda de energía de los centros de datos para 2030». Creo que lo que está ocurriendo en el discurso es que mucha gente ve regularmente títulos como ese, asume que la IA no sólo «impulsa» el aumento del 165%, sino que es la única causa, y que ChatGPT es la razón principal por la que aumenta el uso de energía de la IA. Ambas cosas son erróneas. Según el gráfico anterior, la IA contribuirá con ~200 de los ~650 TWh de aumento de energía en los centros de datos. El resto provendrá del mayor número de personas que acceden a Internet y de otros servicios de los centros de datos. Para 2030, la IA supondrá alrededor del 20% de la energía utilizada en los centros de datos, y si se mantienen las tendencias, los chatbots supondrán alrededor del 3% de esa energía, o el 0,6% de la energía utilizada en los centros de datos. Dado que los centros de datos utilizarán alrededor del 20% de la energía mundial, ChatGPT y otros chatbots utilizarán alrededor del 0,12% de la energía mundial. Se calcula que YouTube utiliza actualmente el 1% de la energía mundial, por lo que si la IA crece al ritmo que esperan los expertos, en 2030 los chatbots utilizarán aproximadamente una décima parte del presupuesto mundial de energía que la cuota actual de YouTube. Si te preocupa ChatGPT, debería preocuparte al menos diez veces más YouTube.
Obviamente, ambos serían una pérdida de tiempo para el movimiento ecologista. Hay culpables mucho mayores de las emisiones globales (nuestros sistemas alimentarios, el transporte y no cambiar a fuentes de energía ecológicas) y, por tanto, palancas mucho más poderosas de las que podemos tirar para salvar el clima.
Uso del agua
¿Por qué utilizan agua los LLM? ¿Adónde va a parar después?
Aquí tienes la explicación de ChatGPT sobre por qué y cómo los centros de datos de IA utilizan el agua y adónde va después. En pocas palabras, los centros de datos de IA
Recurren a los suministros locales de agua.
Utilizan agua para refrigerar las GPU que realizan los cálculos. Las GPU de los centros de datos se calientan cuando están activas del mismo modo que la GPU de tu portátil. Al igual que tu portátil utiliza un ventilador interno para enfriarlo, los centros de datos tienen que recurrir a un sistema de refrigeración para sus GPU, y eso implica hacer correr agua por el equipo para evacuar el calor.
Evapora el agua después, o vuélvela a vaciar en los suministros locales.
Algo a tener en cuenta sobre el uso del agua de los centros de datos de IA es que, aunque gran parte del agua se evapora y abandona la fuente de agua específica, los centros de datos crean una contaminación del agua significativamente menor por galón de agua utilizada en comparación con muchos otros sectores, especialmente la agricultura. Obviamente, es importante reflexionar sobre el impacto de los centros de datos de IA en las fuentes de agua locales, y su sostenibilidad depende sobre todo de lo frágil que sea la fuente de agua. Unas buenas políticas de gestión del agua deberían ayudar a tener en cuenta qué fuentes de agua están más amenazadas y cómo protegerlas.
Cómo sopesar moralmente los distintos tipos de uso del agua (centros de datos que la evaporan frente a agricultura que la contamina) parece muy difícil. Los ecosistemas afectados son demasiado complejos para intentar poner cifras exactas a lo malo que es uno en comparación con el otro. Diré que, intuitivamente, un centro de datos que extrae agua de una fuente local pero la evapora sin contaminar de nuevo al sistema de agua local más amplio parece malo para fuentes locales muy específicas, pero no realmente malo para nuestro acceso general al agua, por lo que toda la preocupación podría ser realmente exagerada y no importaría en absoluto si construyéramos centros de datos exclusivamente en torno a suministros de agua estables. Estoy abierto a equivocarme y me encantaría recibir más opiniones en los comentarios. Informar simplemente de que «los centros de datos utilizan X cantidad de agua» sin aclarar si el agua se evapora o se devuelve al suministro de agua local contaminada o no contaminada parece tan vago que es una mala estadística sin más contexto.
Un hecho importante que mucha gente que habla del uso del agua en la LLM no parece saber es que básicamente todo lo que en Estados Unidos utiliza energía utiliza agua, porque la mayor parte de la forma en que generamos energía es calentando agua hasta convertirla en vapor para hacer girar imanes alrededor de cables. Cada año, EEUU «utiliza» 60.000.000.000.000 (60 billones) de litros de agua para generar electricidad. Eso es unas 3 veces más agua que el Gran Lago Salado. Pongo «utiliza» entre comillas porque el agua se recicla continuamente. Estados Unidos no pierde 3 veces el agua del Gran Lago Salado cada año debido a nuestro sector energético, y tampoco pierde 200 piscinas olímpicas de agua cada día debido al ChatGPT.
¿Cuánta agua utilizan los LLM?
La cifra que se cita a menudo es que 20-50 avisos en ChatGPT utilizan la misma cantidad de agua que una botella de agua normal (0,5 L).
Sin embargo, esta cifra puede ser engañosa, porque la mayor parte de esa agua no se utiliza en el propio centro de datos.
El estudio que nos dio la cifra no sólo midió el agua utilizada por los centros de datos en las búsquedas de ChatGPT, sino que también amortizó el agua consumida por el entrenamiento y el agua utilizada para generar la electricidad que utiliza el centro de datos en primer lugar:
Si te fijas en la sección «Agua por cada solicitud», en la parte superior derecha de la tabla, sólo alrededor del 15% del agua utilizada por solicitud se emplea realmente en el propio centro de datos. El otro 85% o bien se utiliza en la red general de energía estadounidense para alimentar el centro de datos, o bien se amortiza de la formación original. Si alguien lee la estadística «50 búsquedas en ChatGPT consumen 500 mL de agua», podría sacar la conclusión incorrecta de que por cada 50 búsquedas tiene que circular por el centro de datos una botella de agua. En realidad, sólo fluye el 15% de esa botella, por lo que el centro de datos sólo utiliza 500 mL de agua por cada 300 búsquedas.
Toda esta información es para GPT-3, no para 4 o 4o. Dado que el agua utilizada en los centros de datos parece ser una función casi directa de la cantidad de energía utilizada (porque el agua está enfriando el equipo después de generar calor por el uso de electricidad), y 4 y 4o parecen utilizar menos energía por consulta que 3, podemos suponer que «20-50 consultas = 500 mL de agua utilizada» es una estimación razonable del límite superior para las consultas actuales de ChatGPT.
La cantidad media de agua utilizada para generar 1 kWh de energía en Estados Unidos está entre 1 y 9 L . Esto significa que el hogar medio en Estados Unidos(que utiliza 900 kWh de energía al mes) está utilizando entre 900 y 8100 L de agua para generar su electricidad cada mes, agua suficiente para 90.000 - 810.000 búsquedas de ChatGPT. Me preocupa que incluir el agua utilizada en la generación de energía para las búsquedas de ChatGPT pueda inducir a error, porque la gente podría no saber que su uso cotidiano de la energía también consume enormes cantidades de agua, y la mayor parte del coste del agua de ChatGPT está midiendo ese mismo tipo de uso del agua, no algún uso especial del agua que se da en los centros de datos. Utilizando los mismos métodos que este estudio, podría decir correctamente que tu reloj digital está utilizando entre 9 y 81 litros de agua cada año (tanto como 50.000 búsquedas de ChatGPT si sólo incluimos el agua utilizada en los centros de datos), pero esto sería engañoso si tuvieras una razón para pensar que el propio reloj está utilizando agua internamente. Si suponemos que uno de cada dos estadounidenses utiliza un reloj digital, entonces los relojes digitales estadounidenses están utilizando como mínimo 1.100 piscinas olímpicas de agua cada año. Es una estadística chocante si no la contextualizamos con la cantidad de agua que se utiliza en nuestro sistema energético en general. El sector energético estadounidense en su conjunto utiliza 60 billones de litros de agua al año, suficiente para 25 millones de piscinas olímpicas. ChatGPT utiliza 1.500 piscinas olímpicas de agua (con el agua utilizada para la energía incluida), o el 0,006% del total del agua utilizada para la energía en Estados Unidos. Para un servicio que utilizan tantas personas como la población de Estados Unidos varias veces al día, ¡eso parece bastante eficiente desde el punto de vista del agua! Es difícil pensar en otras cosas que 300.000.000 de personas podrían hacer cada día que consumieran menos agua.
Si tienes curiosidad por saber por qué se necesita tanta agua para generar electricidad, es porque la mayoría de nuestras fuentes de electricidad se basan en calentar agua para hacer girar imanes alrededor de cables.
La cantidad de agua que utilizan las LLM puede parecer mucha. Siempre resulta chocante darse cuenta de que nuestras actividades en Internet tienen un impacto físico significativo en el mundo real. El problema de cómo se habla del consumo de agua de la IA es que las conversaciones no suelen comparar el consumo de agua de la IA con otras formas de consumo de agua, sobre todo si utilizamos los métodos de medición que utilizó el estudio original.
Toda la actividad online depende de centros de datos, y los centros de datos utilizan agua para refrigerarse, así que todo lo que haces online utiliza agua. Además, si utilizamos el mismo método que en el estudio original, el consumo de agua de la mayor parte de la actividad en línea se triplica, porque la mayor parte del agua se emplea en la generación de energía. La conversación sobre los LLM a menudo presenta el agua que utilizan como ridícula, sin dar ningún contexto sobre cuánta agua utiliza el resto de la actividad online. En realidad, es bastante fácil calcular una estimación aproximada de cuánta agua utilizan las distintas actividades en línea, porque los centros de datos suelen utilizar unos 1,8 litros de agua por kWh de energía consumida. Esta cifra incluye tanto el agua utilizada por el propio centro de datos como el agua empleada en generar la electricidad utilizada(igual que el estudio original sobre el uso del agua en LLM). He aquí el agua utilizada en un montón de cosas diferentes que haces en Internet, en mililitros:
10 ml - Enviar un correo electrónico
10 ml - Publicar una foto en las redes sociales
20 ml - Una transacción bancaria online
30 ml - Hacer una pregunta a ChatGPT
40 ml - Descargar una aplicación de teléfono
170 ml - Compra en comercio electrónico (navegación y pago)
250 ml - 1 hora escuchando música en streaming
260 ml - 1 hora utilizando la navegación GPS
430 mL - 1 hora navegando por las redes sociales
860 ml - Subir un archivo de 1 GB a la nube
1720 ml - 1 hora de llamada Zoom
2580 ml - 10 minutos de vídeo 4K
Tras los recientes incendios forestales de California, vi varias publicaciones en redes sociales con más de 1 millón de visitas cada una que decían algo así como «La gente SIGUE usando ChatGPT mientras California SE QUEMA». Deberían haber centrado más su ira en la gente que ve Lugares Fantásticos en 4k 60FPS HDR Dolby Vision (Vídeo 4K).
¿Debería el movimiento climático empezar a exigir que todo el mundo deje de escuchar Spotify? ¿Sería un buen uso de nuestro tiempo?
¿Y el coste del agua para entrenar a GPT-4? Hasta ahora sólo he incluido el coste de las consultas individuales. Una estimación aproximada basada en la información disponible dice que GPT-4 consumió unos 250 millones de galones de agua, o unos 1.000 millones de litros. Partiendo del supuesto anterior de que ChatGPT ha recibido hasta ahora unos 200.000 millones de consultas, el coste del agua de entrenamiento añade 0,005 L de agua a los 0,030 L de coste de la búsqueda, de modo que si incluimos el coste de entrenamiento, el consumo de agua por búsqueda aumenta aproximadamente un 16%. Eso sigue sin ser tan intensivo en agua como descargar una aplicación en tu teléfono o 10 minutos de música en streaming. Recuerda que ChatGPT es sólo una de las funciones para las que se utiliza GPT-4, por lo que el coste real de agua del entrenamiento por búsqueda en ChatGPT es aún menor.
La agricultura animal utiliza órdenes de magnitud más de agua que los centros de datos. Si quisiera reducir mi consumo de agua en 600 galones, podría
Omitir el envío de 200.000 consultas ChatGPT, o 50 consultas cada día durante una década.
Omitir escuchar ~2 horas de música en streaming cada día durante una década.
En lugar de dejar ChatGPT, considera la posibilidad de hacerte vegano...
No creo que envíe 200.000 solicitudes de ChatGPT en toda mi vida. Soy vegano desde hace 10 años, así que me he saltado muchas hamburguesas. Cada vez que elijo una hamburguesa vegana en lugar de una de carne, utilizo al menos un 90% menos de agua. Cada hamburguesa de carne individual que cambié por una hamburguesa vegana ahorró más agua de la que podría ahorrar en toda una vida evitando el ChatGPT. Si el movimiento por el clima puede tener el mismo impacto convenciendo a alguien de que se salte una sola hamburguesa que convenciendo a alguien de que deje de usar ChatGPT durante 100 años, ¿por qué íbamos a centrarnos en ChatGPT?
Una crítica habitual al gráfico anterior es que el agua que consumen las vacas existe en la hierba, mientras que el agua que se utiliza en los centros de datos se extrae de fuentes locales que a menudo ya están saturadas de agua. Esto no es correcto por estas razones
Sólo el 5% del ganado vacuno de Estados Unidos se alimenta de hierba.
Alrededor del 20% de las vacas de carne de EEUU están en Texas, Colorado y California. Cada estado ha experimentado una importante presión sobre sus recursos hídricos. Aproximadamente el 20% de los centros de datos de EE.UU. extraen agua de cuencas hidrográficas sometidas a tensiones de moderadas a altas, sobre todo en las regiones occidentales del país, por lo que parece que ambas industrias tienen aproximadamente el 20% de su actividad total concentrada en lugares donde pueden estar perjudicando a las cuencas hidrográficas locales.
Los centros de datos contaminan las reservas locales de agua bastante menos que la ganadería.
Como ya se ha explicado, los centros de datos construidos en zonas con escasez de agua probablemente consumen mucha menos agua porque pueden recurrir a la energía solar.
Si intentas reducir tu consumo de agua, eliminar el uso personal de ChatGPT es como pensar en qué parte de tu vida puedes reducir tus emisiones con mayor eficacia y empezar por deshacerte de tu despertador digital.
Un cálculo aproximado me dice que la relación entre el consumo de agua de una búsqueda de ChatGPT y el de una hamburguesa es la misma que la relación entre el consumo de energía de un viaje de 1 milla en un sedán y el consumo de energía de conducir el crucero más grande del mundo durante 60 millas.
Si tu amigo estuviera a punto de conducir en solitario su crucero personal más grande de la historia durante 60 millas, pero decidiera caminar 1 milla hasta el muelle en lugar de conducir porque le «preocupa el impacto climático de la conducción», ¿hasta qué punto le tomarías en serio? La situación es la misma con el uso del agua y los chatbots de IA. Hay problemas que eclipsan tan completamente el uso individual del agua por la IA que no tiene sentido que el movimiento climático se centre en absoluto en el uso individual de la IA.
Las personas que intentan decirte que tu uso personal de ChatGPT es malo para el medio ambiente están fundamentalmente confundidas sobre dónde se utiliza el agua (y la energía). Se trata de un concepto erróneo tan extendido que deberías hacerles saber educada pero firmemente que están equivocados.
Nota: Agradecemos a Andy su colaboración en este artículo, que es una adaptación del suyo en inglés: