Aktualności

Jak eksperci radzą sobie z rosnącym wpływem generatywnej sztucznej inteligencji na środowisko?

Druga część naszej serii poświęconej wpływowi generatywnej sztucznej inteligencji na środowisko dotyczy tego, co naukowcy i inżynierowie robią, aby zmniejszyć znaczny ślad węglowy tej przyspieszającej technologii. Generatywna sztuczna inteligencja, bez wątpienia rozwijająca się w dość zdumiewającym tempie, ma swoje zapotrzebowanie na energię, które dotrzymuje jej kroku. Zgodnie z przewidywaniami Międzynarodowej Agencji Energii, światowe zużycie energii elektrycznej przez centra danych może zasadniczo podwoić się do 2030 roku, wynosząc około 945 terawatogodzin. To więcej niż roczne zużycie energii elektrycznej w kraju takim jak Japonia!

Główną przyczyną tego gwałtownego wzrostu zużycia energii może być rosnąca potrzeba trenowania i uruchamiania ogromnych modeli sztucznej inteligencji. Nic więc dziwnego, że niedawna analiza Goldman Sachs Research sugeruje, że około 60% tego zapotrzebowania na energię zostanie zaspokojone przez paliwa kopalne, potencjalnie dodając do atmosfery aż 220 milionów ton dwutlenku węgla rocznie.

Głębsze spojrzenie na koszty emisji dwutlenku węgla

Kiedy dyskutujemy o wpływie sztucznej inteligencji na środowisko, skupiamy się głównie na emisji dwutlenku węgla operacyjnego - głównie emisji wytwarzanych przez działające układy GPU i systemy chłodzenia. Istnieje jednak druga strona medalu. Według Vijaya Gadepally'ego z MIT Lincoln Laboratory, dyskusja ma tendencję do pomijania “węgla ucieleśnionego”, który odnosi się do emisji generowanych podczas budowy i modernizacji centrów danych. Te ogromne konstrukcje wypełnione kilometrami okablowania i sprzętem o najwyższej wydajności, zbudowane ze stali i betonu, są również dużymi graczami w tej grze.

Z drugiej strony, wiele firm, w tym Meta i Google, bada obecnie ekologiczne materiały budowlane, takie jak masywne drewno, aby obniżyć ten ukryty koszt emisji dwutlenku węgla. Jednak nasza walka z emisjami nie kończy się tutaj. Czasami rozwiązanie jest tak proste, jak przyciemnienie świateł lub po prostu uruchomienie procesorów graficznych przy zaledwie 30% ich maksymalnego zużycia energii. Co zaskakujące, ma to minimalny wpływ na wydajność modelu, jednocześnie znacznie zmniejszając zapotrzebowanie na chłodzenie.

Tutaj inżynierowie również mają pole do popisu. Mogą zdecydować się na mniej energochłonny sprzęt lub użyć mniej precyzyjnych procesorów zoptymalizowanych pod kątem określonych zadań. Co więcej, stosując wczesne zatrzymanie uczenia modelu - zatrzymując proces przed uzyskaniem ostatnich kilku punktów procentowych dokładności - możemy zmniejszyć zużycie energii o połowę.

Przyszłość sztucznej inteligencji i jej zużycie energii

Dobre wieści nie ograniczają się do sprzętu. Neil Thompson z MIT's FutureTech Research Project przedstawia nam moc ulepszeń algorytmicznych, które zwiększają efektywność energetyczną dwukrotnie niemal co 8-9 miesięcy. Thompson zaproponował termin “negaflop”, który odnosi się do operacji obliczeniowych zaoszczędzonych dzięki inteligentniejszym algorytmom, podobnie jak “negawatt” odnosi się do zaoszczędzonej energii elektrycznej. Niektóre z tych innowacyjnych technik obejmują przycinanie niepotrzebnych komponentów sieci neuronowych i stosowanie kompresji. Obie te strategie drastycznie zmniejszają wymagania obliczeniowe bez poświęcania wydajności.

Chociaż powyższe strategie są obiecujące, czas zdecydowanie ma znaczenie! Deepjyoti Deka z MIT Energy Initiative sugeruje, że nie każda energia elektryczna jest sobie równa. Intensywność emisji dwutlenku węgla jednej kilowatogodziny może się znacznie różnić w zależności od pory dnia i źródła energii. Planując niepilne obciążenia AI w okresach obfitości energii odnawialnej, centra danych mogą znacznie zmniejszyć swój ślad węglowy.

Lokalizacja może również odgrywać rolę w ograniczaniu wpływu na środowisko. Przykładowo, chłodniejsze klimaty, takie jak północna Szwecja, mogą drastycznie zmniejszyć zapotrzebowanie na energochłonne systemy chłodzenia. Niektóre rządy rozważają nawet budowę centrów danych na Księżycu, gdzie operacje mogłyby potencjalnie działać całkowicie na energii odnawialnej. Choć wciąż jest to futurystyczna koncepcja, daje nam to wgląd w to, co może przynieść nam przyszłość.

Nie można zaprzeczyć ironii, że sama sztuczna inteligencja może pomóc złagodzić swój wpływ na środowisko. Jennifer Turliuk, była stypendystka MIT Sloan, wskazuje, że sztuczna inteligencja może przyspieszyć integrację energii odnawialnej z siecią. Modele generatywne mogą znacznie przyspieszyć badania połączeń międzysystemowych, których ukończenie zajmuje obecnie lata. Sztuczna inteligencja może również optymalizować prognozy wytwarzania energii odnawialnej, przeprowadzać konserwację predykcyjną paneli słonecznych i identyfikować najbardziej efektywne lokalizacje dla nowej infrastruktury. Prawidłowo zastosowane rozwiązania mogłyby znacznie przyspieszyć wdrażanie technologii czystej energii i informować o mądrzejszych decyzjach politycznych dotyczących przyjaznej dla środowiska przyszłości.

Z pomocą Turliuk i jej zespołu możemy być w stanie precyzyjnie określić ilościowo te kompromisy. Opracowali Net Climate Impact Score - ramy do oceny pełnych kosztów i korzyści środowiskowych projektów AI. Jej zdaniem współpraca między środowiskiem akademickim, przemysłem i organami regulacyjnymi ma kluczowe znaczenie dla uczynienia sztucznej inteligencji bardziej zrównoważoną. Jak słusznie ujął to Turliuk: “Liczy się każdy dzień. Mamy jedyną w swoim rodzaju szansę na wprowadzenie innowacji i uczynienie systemów AI mniej emisyjnymi, zanim skutki zmian klimatycznych staną się nieodwracalne”.”

Aby zagłębić się w ten temat, zapoznaj się z artykułem oryginalny artykuł w MIT News.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.