La IA también contamina y una de las herramientas que lo utilizan y genera un impacto mayor en el medio es ChatGPT. Un reciente estudio cuantifica en medio litro de agua el coste de cada consulta que hacemos con esta herramienta.

 

Consumo de agua

El estudio es responsabilidad de la Universidad de Cornell. Para desarrollar ChatGPT-3, señalan, se consumieron 700.000 litros de agua dulce limpia, que es lo mismo que se precisa para producir 320 Tesla Modelo 3. El análisis, sin embargo, va más allá: si nos fijamos en una conversación tipo con la herramienta (que incluye entre 20 y 50 intervenciones), se consume medio litro de agua. Cada día, ChatGPT atiende a 13 millones de visitantes, así que estamos hablando de un consumo diario de 7,5 millones de litros. Parece que ser usuario habitual de ChatGPT es más nocivo para el medio ambiente que disfrutar de vez en cuando de una bañera llena.

Otros impactos

Los sistemas d'IA generativa no existirían sin los grandes centros de almacenamiento de datos, que son una de las infraestructuras más intensivas en consumo energético que se conocen. Las necesidades de refrigeración constante de estos equipamientos explican su gasto energético, pero hay más: Hugging Face y la Carnegie Mellon University de Pittsburgh acaban de realizar estudios de impacto ambiental concretos referidos en herramientas como DALL-E, ChatGPT o Midjourney. ChatGPT, que utiliza 1,76 billones de parámetros genera en cada consulta que atiende el mismo impacto que un coche en motor de combustión circulante durante 6 km. En total, se han testado hasta 88 herramientas y las de OpenAI son las que más energía consumen. Afortunadamente, hay quien ha decidido utilizar el calor residual de los centros de datos para generar energía, hecho con lo que se reduce el impacto.