Najciemniej pod latarnią. Niedostrzegany kryzys energetyczny infrastruktury IT
Infrastruktura obliczeniowa ogólnego przeznaczenia zużywa dziś znacznie więcej energii niż sztuczna inteligencja. Dlaczego więc niemal cała debata skupia się wyłącznie na AI?
Osoba śledząca jedynie nagłówki medialne mogłaby odnieść wrażenie, że dynamiczny rozwój sztucznej inteligencji wkrótce doprowadzi do załamania systemów energetycznych z powodu gwałtownie rosnącego zapotrzebowania na energię. W kwietniu 2025 roku Międzynarodowa Agencja Energetyczna (IEA) ostrzegła, że w latach 2024–2030 globalne centra danych mogą podwoić swoje zużycie energii elektrycznej – osiągając poziom porównywalny z rocznym zużyciem energii w Japonii.

Nowoczesne centrum danych świadczące usługi w chmurze, umożliwiające firmom dostęp do zasobów obliczeniowych i pamięci masowej na żądanie przez Internet. Animacja 3D przedstawiająca infrastrukturę serwerowni | źródło: Freepik
Raport IEA „Energetyka a sztuczna inteligencja” koncentruje się głównie na przyszłym zapotrzebowaniu energetycznym związanym z realizacją zadań opartych na AI. I nie jest to odosobniony głos. W obliczu szybkiego rozwoju sztucznej inteligencji i jej wysokiej energochłonności obawy te są jak najbardziej uzasadnione. Problem polega jednak na tym, że skupiając się w tym kontekście wyłącznie na AI, łatwo przeoczyć fakt, iż wcale nie jest ona najbardziej energochłonnym elementem infrastruktury IT. Zdecydowana większość energii zużywanej przez centra danych wynika z innych, powszechnych rozwiązań IT. I nic nie wskazuje na to, aby w najbliższym czasie miało się to zmienić.
Choć media chętnie podkreślają rosnące zapotrzebowanie energetyczne procesorów graficznych (GPU) i klastrów uczenia maszynowego, to w ujęciu bezwzględnym największymi pochłaniaczami energii pozostają standardowe systemy informatyczne wykorzystywane w firmach, kolokowanych centrach danych oraz środowiskach chmurowych. Zużycie energii przez AI rośnie bardzo szybko jednak wciąż nie jest ono największe.
Nie tylko AI – prawdziwi energożercy infrastruktury cyfrowej
Potwierdzają to dostępne analizy i prognozy. Według Międzynarodowej Agencji Energetycznej w 2024 roku sztuczna inteligencja odpowiadała za około 15% całkowitego zużycia energii elektrycznej w centrach danych. Oznacza to, że pozostałe 85% przypadało na technologie informatyczne ogólnego przeznaczenia. Z kolei francuski instytut badawczy IFRI, bazując na danych Goldman Sachs, szacuje udział AI nawet nieco niżej, na poziomie 10% w 2024 roku prognozując wzrost do około 19% w 2030 roku.
Podobne wnioski płyną z badań Uptime Institute, według których do końca dekady obciążenia związane z AI będą odpowiadać za około 20–30% zużycia energii w centrach danych. Co istotne, zapotrzebowanie energetyczne „standardowych” serwerów obsługujących codzienne zastosowania ma w tym samym czasie rosnąć nawet dwukrotnie szybciej niż zużycie energii związane z AI. W praktyce oznacza to, że w przewidywalnej przyszłości to właśnie „cyfrowe woły robocze” – tradycyjne systemy IT, będą łącznie pochłaniać więcej energii niż sztuczna inteligencja. Mimo to debata o zrównoważonym rozwoju IT niemal zawsze kieruje się wyłącznie w stronę AI.
Oczywiście nie chodzi o bagatelizowanie wyzwania, jakim jest szybko rosnące zużycie energii przez systemy sztucznej inteligencji. Warto jednak pamiętać, że zapotrzebowanie na energię elektryczną zwiększa się dziś niemal we wszystkich obszarach IT. Usługi chmurowe, streaming, Internet rzeczy czy aplikacje korporacyjne pozostają filarem cyfrowej gospodarki i również wymagają znacznych ilości energii. Mimo gwałtownego rozwoju AI tradycyjne rozwiązania IT nie tracą na znaczeniu, a wręcz przeciwnie, nadal się rozwijają i nie powinny pozostawać poza głównym nurtem dyskusji.
Szersze spojrzenie na energochłonność branży IT
Wnioski są jednoznaczne – poprawa efektywności energetycznej sztucznej inteligencji jest niezbędna, ale sama w sobie niewystarczająca. Redukcja zużycia energii w sektorze IT wymaga podejścia kompleksowego. AI, choć spektakularna i szeroko komentowana, odpowiada tylko za część całkowitego zapotrzebowania energetycznego. Tymczasem mniej „medialne” technologie, serwery ogólnego przeznaczenia, magazyny danych czy infrastruktura sieciowa odpowiadają za 70–80% zużycia energii. Każdy niewykorzystany serwer, przestarzały system przechowywania danych czy strata energii wynikająca z nieefektywnego chłodzenia lub kodu utrudniają budowę zrównoważonej infrastruktury cyfrowej.
Na szczęście istnieje ogromny potencjał do poprawy sytuacji. Optymalizacja już działających systemów IT to jedna z największych szans na ograniczenie rosnącego zapotrzebowania na energię elektryczną. Zwiększenie poziomu wykorzystania serwerów, konsolidacja obciążeń na nowszym i bardziej energooszczędnym sprzęcie czy optymalizacja oprogramowania pozwalają znacząco zmniejszyć zużycie energii w centrach danych. Dla przedsiębiorstw efektywność energetyczna staje się coraz ważniejszym czynnikiem wpływającym nie tylko na koszty, ale również na tempo wdrożeń i możliwość skalowania usług cyfrowych.
Coraz więcej organizacji dostrzega tę zależność i przyjmuje strategię dwutorową. Z jednej strony inwestują one w odnawialne źródła energii i zaawansowane systemy chłodzenia dla nowych wdrożeń AI oraz obliczeń wysokiej wydajności (HPC). Z drugiej – maksymalizują efektywność energetyczną istniejącej infrastruktury. Oznacza to traktowanie energooszczędności jako zagadnienia stricte inżynieryjnego – wdrażanie spójnych wskaźników efektywności energetycznej w centrach danych, zachęcanie programistów do pisania lepiej zoptymalizowanego kodu, wymianę starzejących się serwerów, inteligentne planowanie obciążeń (np. przechodzenie serwerów i punktów Wi Fi w tryb uśpienia) oraz szersze wykorzystanie wirtualizacji i konteneryzacji.
Efektywność energetyczna
Powinna być traktowana przez zespoły IT jako jeden z kluczowych wskaźników na równi z dostępnością czy wydajnością. Ostatecznie bowiem zużycie energii bezpośrednio przekłada się na wyniki biznesowe.
Uwzględnienie w debacie o energooszczędności zarówno AI, jak i standardowych systemów IT nie oznacza wyboru jednego kosztem drugiego. Oszczędności można szukać w obu obszarach jednocześnie. W praktyce wiele technologii służy jednocześnie tradycyjnym obciążeniom i zadaniom związanym ze sztuczną inteligencją. Przykładowo, zaawansowane systemy chłodzenia opracowane z myślą o superkomputerach mogą znacząco ograniczyć zużycie energii także w przypadku standardowych serwerów, a inteligentne zarządzanie obciążeniami przynosi korzyści zarówno przy trenowaniu modeli AI, jak i w codziennej pracy z bazami danych.
Zbyt wąskie skupienie się wyłącznie na nowościach grozi pominięciem największych rezerw efektywności, które są dostępne już dziś. Nadchodząca era zrównoważonego przywództwa w IT będzie należeć do tych organizacji, które spojrzą na swój cyfrowy ekosystem całościowo i będą optymalizować wszystkie zasoby cyfrowe – nie tylko te, które cieszą się dziś największym zainteresowaniem opinii publicznej.

Infineon i DG Matrix wykorzystują technologię SiC do rozwoju infrastruktury zasilania dla centrów danych obsługujących AI
Fabryki AI kluczowe dla suwerenności cyfrowej UE. Problemem jest ograniczony dostęp do niektórych komponentów
Hewlett Packard Enterprise tworzy nowe rozwiązania AI we współpracy z NVIDIA 





