Si somos amables con las personas con las que nos interrelacionamos, ¿por qué no serlo con las herramientas de Inteligencia Artificial?. Solemos decir que ser amable “no cuesta nada”, pero, cuando nos interrelacionamos con la IA, un “por favor” o un “gracias” tiene un elevado coste. Cualquier palabra de más supone un gasto en energía. Y los millones de “gracias” que cada día se dan a ChatGPT a escala mundial, por poner un ejemplo, generan una factura eléctrica millonaria. Pero, ¿debemos de dejar de ser corteses con las máquinas?
Hace unos días, un internauta preguntó en X “¿cuánto dinero ha perdido OpenAI [propietario de ChatGPT] en costos de electricidad por la gente que le dice ‘por favor’ y ‘gracias’?”. Al día siguiente, Sam Altman, el director ejecutivo de la compañía, le respondió: “Decenas de millones de dólares bien gastados, nunca se sabe”.
Cada petición a un chatbot gasta energía, o sea, cuesta dinero, y cada palabra adicional innecesaria que utilicemos aumenta el consumo energético y, por tanto, la factura eléctrica del servidor. Por este motivo, hay una preocupación creciente por el impacto ambiental de las herramientas de IA: las utilizamos cada vez más, por lo que se dispara el consumo energético pese a una mejora constante en su eficiencia. Y gastar más energía, como gran parte es de origen fósil, genera más gases de efecto invernadero. Además, los centros de datos de IA son unos grandes consumidores de agua, que necesitan para su sistema de refrigeración.
Según datos de Epoch AI, organización sin ánimo de lucro especializada en IA, una consulta promedio a ChatGPT consume 0,3 Wh de electricidad. Aunque se han reducido a una décima parte las estimaciones de 2,9 Wh de hace poco más de un año, por los avances en eficiencia, esto no evita facturas millonarias por el hecho de utilizar la IA.
Un informe de la plataforma BestBrokers estima que el consumo energético de ChatGPT en un año ascendería a 1.058,5 gigavatios-hora (GWh) teniendo en cuenta que acumula unos 365.000 millones de prompts de media y 300 millones de usuarios semanales activos, según datos facilitados por el propio Altman hace unos meses.
Respecto al comentario de Sam Altman en X, The New York Times publicó recientemente un artículo que tituló “Darle las gracias a ChatGPT es costoso, pero quizá valga la pena” en el que recogió opiniones de expertos. Neil Johnson, profesor de física de la Universidad George Washington, comparó las palabras adicionales –como las formas de cortesía– con el embalaje utilizado en las compras: el bot tiene que navegar a través de estos envoltorios, aunque no aporten información, lo que constituye un trabajo extra que consume energía.
Sherry Turkle, investigadora de las conexiones entre humanos y IA del Instituto Tecnológico de Massachusetts, recordó que la inteligencia artificial no es real sino un brillante “truco de salón sin conciencia”. No obstante, indicó que se deben tener en cuenta los precedentes en relaciones hombre-objeto y sus efectos, sobre todo en los niños. Puso como ejemplo los Tamagotchis, esas mascotas digitales que los niños criaron en la década de los noventa: debían estar pendientes de ellas y, si morían, eso podía afectarles psicológicamente. “Si un objeto está lo bastante vivo como para que empecemos a tener conversaciones íntimas, amistosas con él, tratándolo como a una persona realmente importante en nuestras vidas, aunque no lo sea, está lo bastante vivo como para que le mostremos cortesía”. Pero Turkle subraya que, para los objetos o las máquinas, “Si les das la espalda y haces la cena o te suicidas, para ellos es lo mismo”.