La IA generativa también genera impactos negativos en el medio ambiente y una de las herramientas que tienen un efecto más pernicioso es ChatGPT. Un reciente estudio cuantifica en medio litro de agua el coste de cada consulta que hacemos con esta herramienta.
Consumo de agua
El estudio es responsabilidad de la Universidad de Cornell. Para desarrollar ChatGPT-3, señalan, se consumieron 700.000 litros de agua dulce limpia, que es lo mismo que se precisa para producir 320 Tesla Modelo 3. El análisis, sin embargo, va más allá: si nos fijamos en una conversación tipo con la herramienta (que incluye entre 20 y 50 intervenciones), se consume medio litro de agua para mantenerla. Cada día, ChatGPT atiende a 13 millones de visitantes, así que estamos hablando de un consumo diario de 7,5 millones de litros.
¿Por qué tanta agua?
Los sistemas de IA generativa obligan a manejar grandes volúmenes de datos en tiempos muy cortos de tiempo, tareas que son siempre intensivas en energía y que no podrían llevarse a cabo sin la existencia de grandes infraestructuras de almacenamiento de datos como las que gestionan los gigantes del sector tecnológico como Meta, Google o la propia OpenAI. Según la Carnegie Mellon University de Pittsburgh, el impacto ambiental concreto de herramientas como DALL-E, ChatGPT o Midjourney es altísimo. ChatGPT, por ejemplo, utiliza 1,76 billones de parámetros en cada consulta que atiende y el gasto de energía que genera equivale al de un coche con motor de combustión circulando durante 6 km. En total, se han testado hasta 88 herramientas y las de OpenAI son las que más energía consumen. Afortunadamente, hay quien ha decidido utilizar el calor residual de los centros de datos para generar energía, hecho con lo que se reduce el impacto.