Aleksandra Bobrowska - Chwat
inżynier ekolog
Innowacyjne, inteligentne rozwiązania informatyczne znajdują zastosowanie w coraz większej liczbie procesów przemysłowych oraz w życiu codziennym. Sztuczna inteligencja (AI) jest wykorzystywana przez coraz większe rzesze zadowolonych użytkowników . Dotychczas potencjał dużych modeli językowych był niedoceniany. Dziś ChatGPT ma około 180,5 miliona użytkowników, co tydzień odwiedza go średnio 100 milionów osób, generując 1,5 miliarda odsłon miesięcznie.. Dla porównania, Twitterowi i Facebookowi zajęło 5 lat, aby zgromadzić pierwsze 5 milionów użytkowników, podczas gdy ChatGPT osiągnął ten wynik w jeden dzień[1]!
AI otwiera przed nami nowe możliwości, ale również stawia szereg wyzwań. Jednym z kluczowych problemów jest ogromne zapotrzebowanie AI na energię. Według Międzynarodowej Agencji Energii (IEA) firmy z branży opartej na usługach informatycznych, jak np. Amazon, Microsoft, Google i Meta ponad dwukrotnie zwiększyły łączne zużycie energii w latach 2017-2021. W 2021 r. wyniosło ono 72 terawatogodzin (TWh). Wartość ta odpowiada około jednej czwartej całej energii zużytej przez Wielką Brytanię w 2022 roku.
Kolejnym wyzwaniem jest emisja gazów cieplarnianych, która bezpośrednio wynika ze zużycia energii elektrycznej. Działanie infrastruktury AI znacząco podnosi globalne emisje dwutlenku węgla i innych gazów cieplarnianych, co pogłębia problem zmian klimatycznych. Naukowcy z Uniwersytetu Kalifornijskiego w Riverside podali, że proces szkolenia GPT-3 (poprzednika ChatGPT) wygenerował emisję 550 ton ekwiwalentu dwutlenku węgla i zużycie energii na poziomie wystarczającym na pokrycie zapotrzebowania 400 domów jednorodzinnych przez rok (1287 MWh). Przewiduje się, że każda kolejna wersja ChatGPT będzie szkolona w coraz większej liczbie parametrów, wzrośnie również ilość zużywanej energii (proces będzie coraz bardziej energochłonny) [2] [3].
Potężne komputery i serwery, stanowiące serce tej technologii, generują duże ilości ciepła. Aby zapewnić im optymalne warunki pracy, niezbędne są wydajne systemy chłodzenia, które zużywają znaczne ilości wody. W kontekście globalnego niedoboru tego surowca, staje się to coraz bardziej problematyczne.
Istnieją dwa podstawowe typy systemów chłodzenia wykorzystywanych przez firmy informatyczne – chłodzenie kominowe i chłodzenie powietrzem zewnętrznym. Oba systemy wykorzystują wodę. W systemach kominowych najczęściej stosuje się dwa obiegi wody - otwarty (pomiędzy chłodnią kominową a agregatem chłodniczym) i zamknięty (między agregatem chłodniczym a serwerownią centrum danych). W otwartej pętli, część wody jest odparowywana. Natomiast pozostała woda nieodparowana może być ponownie użyta tylko kilka razy (np. 3–10, w zależności od jakości wody) potem musi zostać odprowadzona, aby uniknąć wysokich stężeń soli i minerałów. Aby system kominowy działał prawidłowo, stale należy dodawać nową wodę. Ważna jest jakość wprowadzanej do systemu wody, najlepszym wyborem jest czysta woda słodka, w wielu przypadkach woda pitna, aby uniknąć zatykania rur i rozwoju bakterii. W odpowiednich warunkach klimatycznych możliwe jest użycie systemów chłodzenia powietrzem zewnętrznym. Systemy te charakteryzuje mniejsze zużycie wody w porównaniu do systemów kominowych. Woda wykorzystywana jest głównie do kontroli wilgotności zasysanego powietrza oraz do chłodzenia powietrza, gdy temperatura na zewnątrz przekracza 27 stopni Celsjusza2 [4].
Szacuje się, że AI pochłania ok. 5,4 miliona litrów wody. Na każde 20-50 wygenerowanych odpowiedzi przypada zużycie mniej więcej pół litra wody. Zwiększenie liczby parametrów podczas szkolenia kolejnych wersji AI spowoduje wzrost tych i tak ogromnych wartości.
Organizacja Narodów Zjednoczonych przewiduje, że zapotrzebowanie na wodę przekroczy podaż o 40 procent do 2030 roku. Szacuje, że liczba osób w miastach borykających się z niedoborem wody wzrośnie z 930 milionów w 2016 roku do 1,7-2,4 miliarda ludzi w 2050 roku. Przytoczone dane pokazują jak dużym problemem jest niedobór wody w kontekście globalnym2 [5] [6].
Sztuczna inteligencja generuje realne i niepokojące koszty klimatyczne, których nie można ignorować. Firmy AI coraz chętniej wdrażają rozwiązania proekologiczne, ograniczając szkodliwy wpływ AI na środowisko. Działania obejmują między innymi optymalizację algorytmów wymagających mniejszej ilości obliczeń, wdrażanie technik kompresji modeli AI, zasilanie infrastruktury AI energią z odnawialnych źródeł czy inwestycje w magazyny energii. Ponadto stawia się na serwery o wysokiej wydajności energetycznej, optymalizuje chłodzenie serwerowni AI. Obiecujące wyniki daje wdrażanie systemów monitorowania zużycia energii oraz w badania i rozwój technologii o niskim śladzie węglowym. Ważnym aspektem w redukcji wpływu na środowisko firm zajmujących się rozwojem AI jest edukacja pracowników czy wdrażanie programów recyklingu i ponownego wykorzystania sprzętu.
Na uwagę zasługuje fakt, że największe firmy inwestujące w AI zobowiązały się do działań mających na celu ograniczenie wpływu ich działalności na środowisko. Eksperci alarmują jednak, że działania te są niewystarczające. Raport środowiskowy Google opublikowany w 2023 r. ujawnił, że firma zużyła 5,6 miliarda galonów wody w 2022 roku, co stanowi wzrost o 1,3 miliarda w porównaniu z 2021 rokiem i 2,2 miliarda w porównaniu z 2020 rokiem. Zużycie w 2022 r. odpowiada około 10-dniowemu zużyciu wody w całym Londynie. Natomiast emisje gazów cieplarnianych Google "Scope 2" - te pochodzące z zakupu energii elektrycznej i ciepła - wzrosły o 37% pomiędzy 2021 i 2022 rokiem. Przykład ten pokazuje, że pomiędzy planami i deklaracjami pozostaje jeszcze wiele do zrobienia w kwestii poszanowania środowiska5 6.
Rozwój sztucznej inteligencji niesie ze sobą niewątpliwie wiele korzyści, ale wiąże się również z dodatkowymi kosztami, których nie możemy ignorować. Rosnąca liczba i różnorodność zastosowań modeli AI będzie prowadzić do zwiększania negatywnego wpływu na środowisko. Dlatego tak ważne jest, aby dążenie do innowacji w tej dziedzinie szło w parze z troską o zrównoważony rozwój i minimalizację negatywnych skutków dla planety.
[1] https://explodingtopics.com/blog/chatgpt-users
[2] Pengfei L., Jianyi Y., Mohammad A. Shaolei R. Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models 2023
[3] Patterson D, Gonzalez J, Le Q, Liang Ch. i in. Carbon emissions and large neural network training, 2021
[4] https://blog.google/outreach-initiatives/sustainability/our-commitment-to-climate-conscious-data-center-cooling/
[5] https://www.theguardian.com/technology/2023/aug/01/techscape-environment-cost-ai-artificial-intelligence
[6] https://www.eco-business.com/news/what-are-the-environmental-costs-of-ai/