Druga część naszej serii poświęconej wpływowi generatywnej sztucznej inteligencji na środowisko dotyczy tego, co naukowcy i inżynierowie robią, aby zmniejszyć znaczny ślad węglowy tej przyspieszającej technologii. Generatywna sztuczna inteligencja, bez wątpienia rozwijająca się w dość zdumiewającym tempie, ma swoje zapotrzebowanie na energię, które dotrzymuje jej kroku. Zgodnie z przewidywaniami Międzynarodowej Agencji Energii, światowe zużycie energii elektrycznej przez centra danych może zasadniczo podwoić się do 2030 roku, wynosząc około 945 terawatogodzin. To więcej niż roczne zużycie energii elektrycznej w kraju takim jak Japonia!
The root cause of this energy surge can be linked to our increasing need to train and run massive AI models. It comes as no surprise then that Goldman Sachs Research’s recent analysis suggests that about 60% of this energy demand will be met by fossil fuels, potentially adding a whopping 220 million tons of carbon dioxide to the atmosphere annually.
When we discuss the environmental impact of AI, the focus is predominantly on operational carbon – mainly emissions produced by running GPUs and cooling systems. But there’s another side to this coin. According to Vijay Gadepally from MIT Lincoln Laboratory, the discussion tends to overlook “embodied carbon”, which refers to the emissions generated during the construction and retrofitting of data centers. These massive structures filled with miles of cabling and top-performing hardware, constructed using steel and concrete, are also big players in the game.
On the bright side, many companies, including Meta and Google, are now exploring eco-friendly construction materials like mass timber to bring down this hidden carbon cost. However, our fight against emissions doesn’t stop here. Sometimes, the solution is as straightforward as dimming the lights or simply running GPUs at just 30% of their maximum energy consumption. Surprisingly, this has minimal impact on model performance while significantly easing cooling demands.
Tutaj inżynierowie również mają pole do popisu. Mogą zdecydować się na mniej energochłonny sprzęt lub użyć mniej precyzyjnych procesorów zoptymalizowanych pod kątem określonych zadań. Co więcej, stosując wczesne zatrzymanie uczenia modelu - zatrzymując proces przed uzyskaniem ostatnich kilku punktów procentowych dokładności - możemy zmniejszyć zużycie energii o połowę.
The good news is not limited to hardware. Neil Thompson of MIT’s FutureTech Research Project introduces us to the power of algorithmic enhancements, which is increasing energy efficiency two-fold nearly every 8-9 months. Thompson proposed the term “negaflop”, which refers to computational operations conserved through smarter algorithms, much like “negawatt” applies to saved electricity. Some of these innovative techniques include pruning unnecessary neural network components and applying compression. Both these strategies drastically cut down computational requirements without sacrificing performance.
Chociaż powyższe strategie są obiecujące, czas zdecydowanie ma znaczenie! Deepjyoti Deka z MIT Energy Initiative sugeruje, że nie każda energia elektryczna jest sobie równa. Intensywność emisji dwutlenku węgla jednej kilowatogodziny może się znacznie różnić w zależności od pory dnia i źródła energii. Planując niepilne obciążenia AI w okresach obfitości energii odnawialnej, centra danych mogą znacznie zmniejszyć swój ślad węglowy.
Lokalizacja może również odgrywać rolę w ograniczaniu wpływu na środowisko. Przykładowo, chłodniejsze klimaty, takie jak północna Szwecja, mogą drastycznie zmniejszyć zapotrzebowanie na energochłonne systemy chłodzenia. Niektóre rządy rozważają nawet budowę centrów danych na Księżycu, gdzie operacje mogłyby potencjalnie działać całkowicie na energii odnawialnej. Choć wciąż jest to futurystyczna koncepcja, daje nam to wgląd w to, co może przynieść nam przyszłość.
There’s no denying the irony that AI itself could help mitigate its own environmental impact. Jennifer Turliuk, a former MIT Sloan Fellow, points out that AI can expedite the integration of renewable energy into the grid. Generative models could dramatically speed up interconnection studies, which right now take years to finish. AI can also optimize renewable energy generation forecasts, perform predictive maintenance on solar panels, and identify the most efficient locations for new infrastructure. If correctly applied, this could greatly accelerate the deployment of clean energy technologies and inform smarter policy decisions for an eco-friendly future.
With the help of Turliuk and her team, we might be able to precisely quantify these trade-offs. They developed the Net Climate Impact Score—a framework to evaluate the full environmental cost and benefit of AI projects. In her opinion, collaboration between academia, industry, and regulators is critical to making AI more sustainable. As Turliuk rightly puts it, “Every day counts. We have a once-in-a-lifetime opportunity to innovate and make AI systems less carbon-intense before the effects of climate change become irreversible.”
Aby zagłębić się w ten temat, zapoznaj się z artykułem oryginalny artykuł w MIT News.
This website uses cookies.