Czy sztuczna inteligencja naprawdę zagraża naszym zasobom energetycznym? Obawy na pewno są przesadzone!
2024-12-29
Autor: Michał
Sztuczna inteligencja (AI) staje się jednym z najgorętszych tematów w mediach i publicznych dyskusjach, a wiele osób martwi się jej potencjalnym wpływem na zużycie energii na świecie.
Niekiedy wydaje się, że AI może stać się „energetycznym wampirem”. Takie obawy nie są bezpodstawne, ponieważ nowe technologie wkrótce zaczynają dominować w różnych dziedzinach życia. Na przykład, jak zauważa portal Axios, zaledwie w ciągu dwóch lat wprowadzenie generatywnej sztucznej inteligencji spowodowało, że korzysta z niej 39% gospodarstw domowych w USA. Dla porównania, komputery po dwóch latach od swojego wprowadzenia na rynek miały 15% penetracji, a internet – nieco ponad 20%.
Ale ile energii tak naprawdę zużywa AI?
Nowe badania pokazują, że obawy przed zagrożeniem związanym z wykorzystaniem energii przez AI mogą być przesadzone. Warto zauważyć, że centra danych w Irlandii zużywają już ponad 20% energii elektrycznej, jednak takie przypadki są wciąż rzadkością na całym świecie.
Jak wynika z analiz Międzynarodowej Agencji Energetycznej (MAE), centra danych aktualnie zużywają około 2% globalnego zużycia energii, co uwzględnia nie tylko AI, ale również wszystkie usługi związane z transmisją danych, od odtwarzania filmów online po zarządzanie smart home.
Czy przyszłość jest zagrożona?
Przewidywania do 2030 roku sugerują, że potrzeby energetyczne związane z rozwojem centrów danych wzrosną o 223 TWh, ale to i tak stanowi jedynie 3% ogółu szacowanego wzrostu zapotrzebowania na energię, który wyniesie ponad 6000 TWh. Największy wpływ na zapotrzebowanie na energię będą miały wciąż rosnące potrzeby związane z elektrycznymi pojazdami oraz klimatyzacją, a nie sama AI.
Oto prawda: świat jest coraz bardziej cyfrowy. Jak zauważa analityczka Hannah Ritchie, by wciąż utrzymać nasze usługi internetowe, potrzebujemy kilku procent światowej energii elektrycznej, co nie wydaje się zbyt wygórowane.
Znaczenie efektywności
Dalsze postępy w wydajności technologii AI, zarówno sprzętu, jak i oprogramowania, będą miały ogromne znaczenie dla przyszłego zapotrzebowania na energię. Wydajność układów scalonych związanych z AI została podwojona co 2,5-3 lata, a nowe technologie chłodzenia mogą dodatkowo zredukować zużycie energii.
Hannah Ritchie przypomina, że obawy o gwałtowny wzrost zapotrzebowania na energię przez technologie cyfrowe pojawiały się już wcześniej, na przykład między 2010 a 2018 rokiem moc obliczeniowa centrów danych wzrosła o 550%, ale zużycie energii wzrosło jedynie o 6%.
To, jak wykorzystamy AI, będzie miało znaczenie: na przykład generowanie filmów potrzebuje znacznie więcej energii niż generowanie tekstu. Warto zauważyć, że rozwój AI ma potencjał do zwiększenia efektywności systemów energetycznych.
Warto też podkreślić, że w niektórych regionach, jak USA czy Irlandia, centra danych mogą rzeczywiście powodować znaczne obciążenie lokalnych sieci energetycznych, co prowadzi do ograniczeń w ich rozwoju. Giganty technologiczne jak Microsoft i Nvidia inwestują w energię jądrową, co ma na celu zaspokojenie rosnącego zapotrzebowania na energię dla centrów danych.
Co to wszystko oznacza? Przede wszystkim: AI będzie stanowić lokalne wyzwanie. Po drugie, chociaż ciężko przewidzieć jej globalny wpływ, nie ma podstaw do paniki.