¿Cómo podemos reducir el impacto medioambiental de la IA?
Una forma de abordar esta cuestión es abogar por una mayor transparencia en el desarrollo y funcionamiento de los sistemas de aprendizaje automático. Los científicos han desarrollado marcos para ayudar a los investigadores a informar sobre su consumo de energía y carbono, con la esperanza de promover la rendición de cuentas y las prácticas responsables en este campo. Para ayudar a los investigadores a evaluar su uso de la energía, algunos científicos han publicado herramientas en línea que animan a los equipos a realizar experimentos en zonas respetuosas con el medio ambiente, a proporcionar actualizaciones coherentes sobre las mediciones de energía y carbono, y a evaluar activamente las compensaciones entre el uso de la energía y el rendimiento antes de desplegar modelos de alto consumo energético.
Los individuos también tienen un papel crucial que desempeñar en la promoción de una mayor responsabilidad en la IA. Una forma de hacerlo es reducir la exageración en torno a los nuevos y llamativos sistemas de IA, como ChatGPT, y reconocer las limitaciones de los modelos lingüísticos. Al situar sus logros en su contexto y reconocer las compensaciones que implican, podemos fomentar activamente nuevas vías de investigación que no se basen únicamente en el desarrollo de modelos más grandes y complejos. Este enfoque no sólo promueve prácticas responsables en la IA, sino que también allana el camino hacia una IA «más verde».
Se calcula que ChatGPT emite 8,4 toneladas de dióxido de carbono al año, más del doble de la cantidad emitida por un individuo, que es de 4 toneladas al año. Por supuesto, el tipo de energía utilizada para hacer funcionar estos centros de datos afecta a la cantidad de emisiones producidas -las centrales eléctricas de carbón o gas natural producen emisiones mucho mayores que la energía solar, eólica o hidroeléctrica-, por lo que es difícil proporcionar cifras exactas.
Un estudio reciente de investigadores de la Universidad de California, Riverside, reveló la importante huella hídrica de modelos de IA como ChatGPT-3 y 4. El estudio informa de que Microsoft utilizó aproximadamente 700.000 litros de agua dulce para entrenar el GPT-3 en sus centros de datos, lo que equivale a la misma cantidad de agua utilizada para fabricar 370 coches BMW o 320 vehículos Tesla. Esto se debe principalmente al proceso de entrenamiento, que consume y convierte grandes cantidades de energía en calor, lo que requiere una cantidad asombrosa de agua dulce para mantener las temperaturas bajo control y enfriar las máquinas. El modelo también consume una cantidad significativa de agua en el proceso de inferencia, que se produce cuando ChatGPT se utiliza para tareas como responder preguntas o generar texto. Para una simple conversación de 20-50 preguntas, el agua consumida equivale a una botella de 500 ml, lo que hace que la huella hídrica total para la inferencia sea significativa si se tienen en cuenta los miles de millones de usuarios.
¿Cómo podemos reducir el impacto medioambiental de la IA?
Una forma de abordar esta cuestión es abogar por una mayor transparencia en el desarrollo y funcionamiento de los sistemas de aprendizaje automático. Los científicos han desarrollado marcos para ayudar a los investigadores a informar sobre su consumo de energía y carbono, con la esperanza de promover la rendición de cuentas y las prácticas responsables en este campo. Para ayudar a los investigadores a evaluar su uso de la energía, algunos científicos han publicado herramientas en línea que animan a los equipos a realizar experimentos en zonas respetuosas con el medio ambiente, a proporcionar actualizaciones coherentes sobre las mediciones de energía y carbono, y a evaluar activamente las compensaciones entre el uso de la energía y el rendimiento antes de desplegar modelos de alto consumo energético.
Los individuos también tienen un papel crucial que desempeñar en la promoción de una mayor responsabilidad en la IA. Una forma de hacerlo es reducir la exageración en torno a los nuevos y llamativos sistemas de IA, como ChatGPT, y reconocer las limitaciones de los modelos lingüísticos. Al situar sus logros en su contexto y reconocer las compensaciones que implican, podemos fomentar activamente nuevas vías de investigación que no se basen únicamente en el desarrollo de modelos más grandes y complejos. Este enfoque no sólo promueve prácticas responsables en la IA, sino que también allana el camino hacia una IA «más verde».
Se calcula que ChatGPT emite 8,4 toneladas de dióxido de carbono al año, más del doble de la cantidad emitida por un individuo, que es de 4 toneladas al año. Por supuesto, el tipo de energía utilizada para hacer funcionar estos centros de datos afecta a la cantidad de emisiones producidas -las centrales eléctricas de carbón o gas natural producen emisiones mucho mayores que la energía solar, eólica o hidroeléctrica-, por lo que es difícil proporcionar cifras exactas.
Un estudio reciente de investigadores de la Universidad de California, Riverside, reveló la importante huella hídrica de modelos de IA como ChatGPT-3 y 4. El estudio informa de que Microsoft utilizó aproximadamente 700.000 litros de agua dulce para entrenar el GPT-3 en sus centros de datos, lo que equivale a la misma cantidad de agua utilizada para fabricar 370 coches BMW o 320 vehículos Tesla. Esto se debe principalmente al proceso de entrenamiento, que consume y convierte grandes cantidades de energía en calor, lo que requiere una cantidad asombrosa de agua dulce para mantener las temperaturas bajo control y enfriar las máquinas. El modelo también consume una cantidad significativa de agua en el proceso de inferencia, que se produce cuando ChatGPT se utiliza para tareas como responder preguntas o generar texto. Para una simple conversación de 20-50 preguntas, el agua consumida equivale a una botella de 500 ml, lo que hace que la huella hídrica total para la inferencia sea significativa si se tienen en cuenta los miles de millones de usuarios.