Si som amables amb les persones amb les que ens interrelacionem, per què no ser-ho amb les eines d'Intel·ligència Artificial?. Solem dir que ser amable "no costa res", però, quan ens interrelacionem amb la IA, un "si us plau" o un "gràcies" té un elevat cost. Qualsevol paraula de més o innecessària suposa una despesa en energia. I els milions de "gràcies" que cada dia es donen a ChatGPT a escala mundial, per posar un exemple, generen una factura elèctrica milionària. Però, hem de deixar de ser cortesos amb les màquines?
Fa uns dies, un internauta va preguntar a X "quants diners ha perdut OpenAI [propietari de ChatGPT] en costos d'electricitat per la gent que li diu 'si us plau' i 'gràcies'?". L'endemà, Sam Altman, el director executiu de la companyia, li va respondre: "Desenes de milions de dòlars ben gastats, mai no se sap".
Cada petició a un xatbot gasta energia, o sigui, costa diners, i cada paraula addicional innecessària que utilitzem augmenta el consum energètic i, per tant, la factura elèctrica del servidor. Per aquesta raó, hi ha una preocupació creixent per l'impacte ambiental de les eines d'IA: les utilitzem cada vegada més, per la qual cosa es dispara el consum energètic malgrat una millora constant en la seva eficiència. I gastar més energia, com que gran part és d'origen fòssil, genera més gasos amb efecte hivernacle. A més, els centres de dades d'IA són uns grans consumidors d'aigua, que necessiten per al seu sistema de refrigeració.
Segons dades d'Epoch AI, organització sense ànim de lucre especialitzada en Intel·ligència Artificial, una consulta mitjana a ChatGPT consumeix 0,3 Wh d'electricitat. Si bé s'han reduït a una desena part les estimacions de 2,9 Wh de fa poc més d'un any, pels avenços en eficiència, això no evita factures milionàries pel fet d'utilitzar la IA.
Un informe de la plataforma BestBrokers estima que el consum energètic de ChatGPT en un any pujaria a 1.058,5 gigawatts-hora (GWh) tenint en compte que acumula uns 365.000 milions de prompts de mitjana i 300 milions d'usuaris setmanals actius, segons dades facilitades pel mateix Altman fa uns mesos.
Respecte al comentari de Sam Altman a X, The New York Times va publicar recentment un article que va titular “Donar-li les gràcies a ChatGPT és costós, però potser val la pena” en què va recollir opinions d'experts. Neil Johnson, professor de física de la Universitat George Washington, va comparar les paraules addicionals –com les formes de cortesia– amb l'embalatge utilitzat a les compres: el bot ha de navegar a través d'aquests embolcalls, encara que no aportin informació, fet que constitueix un treball extra que consumeix energia.
Sherry Turkle, investigadora de les connexions entre humans i IA de l'Institut Tecnològic de Massachusetts, va recordar que la intel·ligència artificial no és real sinó un brillant “truc de saló sense consciència”. Tot i això, va indicar que s'han de tenir en compte els precedents en relacions home-objecte i els seus efectes, sobretot en els nens. Va posar com a exemple els Tamagotchis, aquelles mascotes digitals que els nens van criar a la dècada dels noranta: n'havien d'estar pendents i, si morien, això podia afectar el seu ànim. “Si un objecte és prou viu perquè comencem a tenir converses íntimes, amistoses amb ell, tractant-lo com una persona realment important en les nostres vides, encara que no ho sigui, és prou viu perquè li mostrem cortesia”. Però Turkle subratlla que, per als objectes o les màquines, “Si els dónes l'esquena i fas el sopar o et suïcides, per a ells és el mateix”.