LinkedIn YouTube Facebook
Szukaj

Newsletter

Proszę czekać.

Dziękujemy za zgłoszenie!

Wstecz
Artykuły

Ile energii potrzebuje ChatGPT do obsługi ponad 365 mld zapytań użytkowników rocznie?

Startup OpenAI ujawnił niedawno, że jego przełomowy chatbot osiągnął 300 mln aktywnych użytkowników tygodniowo, podwajając liczbę z września 2023 roku. Ten szybki wzrost sprawił, że ChatGPT stał się jedną z najszybciej rozwijających się i najpopularniejszych aplikacji wszechczasów. Oprócz odpowiadania na podstawowe pytania, to potężne narzędzie może komponować całe eseje w kilka sekund, angażować się w rozmowy podobne do ludzkich, generować obrazy, rozwiązywać złożone problemy matematyczne, tłumaczyć teksty, a nawet pisać kod. Jednak ChatGPT zużywa w tym procesie dużo energii, podobno prawie dziesięć razy więcej niż tradycyjne wyszukiwanie w Google.

Zespół BestBrokers postanowił spojrzeć na ilość energii elektrycznej zużywanej przez chatbota OpenAI w skali roku. Sprawdzili również, ile by to kosztowało przy średniej komercyjnej stawce energii elektrycznej w USA wynoszącej 0,132 USD za kWh od października 2024 r. (najnowsze stawki opublikowane przez U.S. Energy Information Administration). Po przeprowadzeniu obliczeń okazało się, że na same odpowiedzi na pytania ChatGPT zużywa średnio 1,059 mld kilowatogodzin rocznie, co daje wydatek w wysokości 139,7 mln USD.

I’ll ChatGPT it

Po przesłaniu zapytania do wyszkolonego modelu sztucznej inteligencji, takiego jak ChatGPT, proces ten nazywany jest wnioskowaniem. Polega on na przepuszczeniu pytania przez parametry modelu, co pozwala mu dostrzec wzorzec i wygenerować odpowiedź na podstawie dostępnych danych. Oszacowanie energii wymaganej do tego procesu jest jednak nieco trudne, ponieważ zależy od wielu zmiennych, takich jak długość zapytania, liczba użytkowników i wydajność modelu. W większości przypadków informacje te są poufne. Mimo to można dokonać pewnych przybliżonych obliczeń, aby uzyskać poczucie ilości energii elektrycznej, która będzie potrzebna.

Najwyraźniej na każde zadane pytanie ChatGPT zużywa około 0,0029 kilowatogodzin energii elektrycznej. To prawie dziesięć razy więcej niż energia potrzebna do typowego wyszukiwania w Google, które zużywa około 0,0003 kilowatogodziny, zgodnie z The Electric Power Research Institute (EPRI).

100 tysięcy razy więcej niż gospodarstwo domowe

W dniu 4 grudnia 2024 r. OpenAI opublikował na X, że ChatGPT może pochwalić się obecnie 300 mln aktywnych użytkowników tygodniowo, podwajając liczbę zgłoszoną przez CEO Sama Altmana we wrześniu 2023 roku. Co więcej, ta ilość użytkowników generuje 1 mld zapytań dziennie. Aby je przetworzyć i wygenerować odpowiedzi, chatbot zużywa około 2,9 mln kilowatogodzin energii każdego dnia. Dla porównania, przeciętne amerykańskie gospodarstwo domowe zużywa około 29 kilowatogodzin energii elektrycznej dziennie. Oznacza to, że ChatGPT zużywa 100 tysięcy razy więcej energii niż typowe gospodarstwo domowe.

W ciągu roku całkowite zużycie energii przez ChatGPT wynosi 1 058,5 GWh, co wystarcza na odpowiedź na około 365 mld monitów. To ogromne zużycie energii elektrycznej odpowiada zużyciu energii przez mały kraj; według U.S. Energy Information Administration, w 2022 roku Barbados zużył około tysiąca gigawatogodzin, czyli nieco mniej niż ChatGPT wykorzystuje do przetwarzania pytań i generowania odpowiedzi.

Więcej energii na myślenie

Przy średniej komercyjnej stawce energii elektrycznej w USA, wynoszącej 0,132 USD za kWh od października 2024 r., przekłada się to na roczny koszt energii elektrycznej w wysokości około 139,72 mln USD, przy czym każde zapytanie kosztuje około 0,00038 USD. Dodatkowo, ponieważ OpenAI nadal ulepsza swoje chatboty o nowe funkcje, takie jak audio, wideo i generowanie obrazów, jak widać w modelu GPT-4o, liczby te mogą wzrosnąć jeszcze bardziej. OpenAI opracowało również nową serię modeli rozumowania AI, w tym niedawno wydany „OpenAI o1”. Modele te zostały zaprojektowane tak, aby spędzać więcej czasu na „myśleniu” przed udzieleniem odpowiedzi, podobnie jak ludzie podchodzą do złożonych problemów. Ta zwiększona zdolność rozumowania pozwala im radzić sobie z trudniejszymi zadaniami, ale prawdopodobnie doprowadzi do wyższych kosztów i większego zużycia energii.

Porównanie ogromnego zużycie energii przez ChatGPT do innych potrzeb:

Do końca 2023 r. Departament Energii Stanów Zjednoczonych odnotował około 3,3 mln samochodów elektrycznych na drogach w Stanach Zjednoczonych. Według bazy danych EV, przeciętny samochód elektryczny zużywa 0,189 kilowatogodziny na kilometr i może przejechać około 378 kilometrów na pełnym naładowaniu, co oznacza, że ma baterię, która może przechowywać około 71,4 kilowatogodzin energii. Możemy zatem obliczyć, że jednorazowe naładowanie wszystkich pojazdów elektrycznych w USA wymagałoby 235,6 mln kilowatogodzin. Jeśli weźmiemy całkowitą energię zużywaną przez ChatGPT w ciągu roku do generowania odpowiedzi i podzielimy ją przez tę liczbę, okaże się, że moglibyśmy w pełni naładować każdy pojazd elektryczny w USA około 4,5 raza.

Z perspektywy gospodarstwa domowego i telefonu

Według Energy Information Administration (EIA), przeciętny dom w Stanach Zjednoczonych potrzebuje około 10 500 kilowatogodzin energii elektrycznej rocznie. Oznacza to, że energia, którą ChatGPT zużywa każdego roku do obsługi żądań, mogłaby zasilić 100 810 amerykańskich domów przez cały rok. Chociaż to tylko około 0,08% ze 131 mln gospodarstw domowych w kraju, zgodnie z najnowszymi danymi spisu powszechnego, to wciąż jest to ogromna ilość energii, zwłaszcza jeśli weźmie się pod uwagę, że Stany Zjednoczone zajmują trzecie miejsce na świecie pod względem liczby domów.

iPhone 15 ma baterię o pojemności 12,98 watogodzin, co daje około 4,74 kilowatogodzin do ładowania każdego dnia przez cały rok. Jeśli porównamy to z rocznym zużyciem energii przez ChatGPT, okaże się, że energia elektryczna dla chatbota mogłaby w pełni naładować 223,4 mln iPhone’ów każdego dnia przez cały rok.

1 godzina pracy Chat GPT = 73 lata streamingu Video

Według Carbon Trust, brytyjskiej organizacji non-profit, zajmującej się pomaganiem firmom w ograniczaniu emisji dwutlenku węgla, jedna godzina streamingu wideo w Europie zużywa około 188 watogodzin energii. Dla porównania, ChatGPT wypluwający informacje przez zaledwie godzinę zużywa około 120,83 miliona watogodzin. Oznacza to, że aby dorównać zużyciu energii podczas godzinnej pracy ChatGPT, musiałbyś streamować wideo przez 642 730 godzin, czyli ponad 73 lata.

I tutaj robi się jeszcze ciekawiej. Korzystając z najnowszych danych EIA, zespół BestBrokers zidentyfikował 40 krajów i terytoriów, w tym Barbados, Fidżi, Grenlandię, Gibraltar, Dominikę i Haiti, które osobno zużywają mniej energii rocznie niż ChatGPT wykorzystuje wyłącznie do przetwarzania zapytań użytkowników. W rzeczywistości, w oparciu o obliczenia, roczne zużycie energii przez ChatGPT do obsługi zapytań mogłoby zasilić Szwajcarię lub Singapur, z których każdy zużywa około 57 mld kilowatogodzin rocznie, przez prawie tydzień (dokładnie 163 godziny). W przypadku krajów o wyższym zapotrzebowaniu na energię, takich jak Finlandia czy Belgia, gdzie roczne zużycie energii elektrycznej wynosi około 80 miliardów kilowatogodzin, pozwoliłoby to na utrzymanie światła przez dwa dni i dwie godziny.

Nawet energochłonne kraje, takie jak Wielka Brytania i Włochy, gdzie roczne zużycie energii waha się między 287 a 298 miliardami kilowatogodzin, mogłyby pozostać zasilane przez 32 godziny przy rocznym zużyciu energii przez ChatGPT na odpowiadanie na monity. Co zadziwiające, roczne zużycie energii przez ChatGPT na odpowiadanie na pytania mogłoby nawet zapewnić zasilanie Kanady przez siedemnaście godzin lub zapewnić energię elektryczną dla całych Stanów Zjednoczonych przez dwie godziny.

Ilość energii potrzebna podczas szkolenia ChatGPT

Trenowanie dużych modeli językowych (LLM) jest również bardzo energochłonnym procesem. Na tym etapie model AI „uczy się”, analizując duże ilości danych i przykładów. Może to zająć od kilku minut do kilku miesięcy, w zależności od ilości danych i złożoności modelu. Podczas treningu procesory CPU i GPU, układy elektroniczne zaprojektowane do przetwarzania dużych zbiorów danych, działają nieprzerwanie, zużywając znaczne ilości energii.

Przykładowo, uczenie modelu GPT-3 OpenAI, z jego 175 mld parametrów, zajęło około 34 dni i zużyło około 1 287 000 kilowatogodzin energii elektrycznej. Jednak w miarę jak modele ewoluują i stają się bardziej złożone, wzrasta również ich zapotrzebowanie na energię. Trening modelu GPT-4, z ponad 1 bln parametrów, zużył około 62 318 800 kilowatogodzin energii elektrycznej w ciągu 100 dni, czyli 48 razy więcej niż GPT-3.

Uczenie poprzez nagrody i kary

W rzeczywistości to właśnie nowa metoda uczenia odróżnia model o1 od jego poprzedników. Została ona opracowana przy użyciu nowego algorytmu optymalizacji i zestawu danych specjalnie dostosowanego do tego modelu. W przeciwieństwie do poprzednich modeli GPT, które naśladują wzorce z danych treningowych, o1 został przeszkolony do samodzielnego rozwiązywania problemów przy użyciu uczenia ze wzmocnieniem, techniki, która uczy system poprzez nagrody i kary. Następnie wykorzystuje „łańcuch myśli” do przetwarzania zapytań, podobnie jak ludzie rozwiązują problemy krok po kroku. Takie podejście pozwala o1 udoskonalić proces myślenia, eksperymentować z różnymi strategiami i uczyć się na błędach.

Szacowanie zysków OpenAI z płatnych subskrypcji

Podczas gdy 1 mld zapytań użytkowników dziennie może kosztować OpenAI blisko 140 mln USD rocznie, jest to nic w porównaniu z przychodami firmy z płatnych subskrypcji. We wrześniu dyrektor operacyjny OpenAI Brad Lightcap powiedział, że ChatGPT przekroczył 11 mln płacących subskrybentów. Około 1 mln z nich to plany zorientowane na biznes, tj. użytkownicy Enterprise i Team, podczas gdy reszta, około 10 mln osób, płaciła za plan Plus.

5 grudnia udostępniono nowy plan Pro za 200 USD miesięcznie, który zapewniał użytkownikom nieograniczony dostęp do modeli o1 i o1-mini, GPT-4o i Advanced Voice. Obejmował on również model o1 pro mode, a także nieograniczone korzystanie z kreatora wideo Sora AI i wyższe limity stawek na połączenia API. Podczas gdy cena 200 USD miesięcznie może wydawać się wygórowana dla większości użytkowników, jest to prawdopodobnie świetna oferta dla twórców oprogramowania lub użytkowników, którzy tworzą filmy przy użyciu (prawie) nieograniczonych możliwości AI w ramach planu Pro.

Straty na subskrypcjach Pro?

Zaskoczeniem na początku 2025 roku było przyznanie przez Sama Altmana w poście na X, że firma traci pieniądze na subskrypcjach Pro. Okazuje się, że ludzie korzystali z dodatków Pro bardziej, niż firma się spodziewała. Obecnie OpenAI nie ujawniło liczby subskrypcji Pro ani tego, ile faktycznie kosztują usługi objęte planem. Ile więc OpenAI zarabia na płatnych subskrypcjach?

Opierając się na dotychczasowych statystykach (1 mln subskrybentów Business, z czego 75% to użytkownicy Team od września 2024 r. plus 10 mln subskrybentów Plus), zespół BestBrokers szacuje, że liczba płacących subskrybentów w styczniu 2025 r. wyniesie około 11,11 mln. Biorąc pod uwagę wysoką cenę planu Pro i fakt, że został on uruchomiony w grudniu ubiegłego roku, około 10 tysięcy użytkowników Pro generuje 2 mln USD przychodu dla firmy.

Poniżej zestawienie tego, co OpenAI może zarabiać na płatnych subskrypcjach od 10 stycznia 2025 r:

  • 250 tysięcy użytkowników Enterprise płacących 60 USD/miesiąc
  • 800 tysięcy użytkowników Team płacących 25 USD/miesiąc
  • 10 tysięcy użytkowników Pro płacących 200 USD/miesiąc
  • 10,05 miliona użytkowników Plus płacących 20 USD/miesiąc

Oznacza to, że firma zarabia około 238 mln USD z płatnych subskrypcji każdego miesiąca lub około 2,856 mld USD rocznie. Dla porównania, jest to ponad 20-krotność szacowanych rocznych kosztów energii elektrycznej związanych z przetwarzaniem zapytań użytkowników. Roczne koszty energii (139,7 mln USD) można łatwo pokryć przychodami z mniej niż jednego miesiąca. Są to oczywiście przybliżone szacunki oparte na publicznie dostępnych informacjach; niewiele z nich zostało jednak potwierdzonych przez firmę.

Należy pamiętać, że szacunki dotyczące liczby płacących subskrybentów są dość konserwatywne, w tym dla użytkowników Pro. Z drugiej strony koszty energii elektrycznej są prawdopodobnie znacznie niższe, jeśli firma korzysta z własnych odnawialnych źródeł energii, takich jak fotowoltaika oraz korzysta z z sieci po preferencyjnych stawkach.

Metodologia

Aby oszacować liczbę zapytań obsługiwanych przez ChatGPT każdego tygodnia, zespół BestBrokers zaczął od rozważenia 200 mln użytkowników tygodniowo. Spekulował, że średnio każdy użytkownik zadaje chatbotowi 15 pytań tygodniowo. Należy pamiętać, że jest to przybliżone założenie, biorąc pod uwagę, że podczas gdy niektórzy użytkownicy mogą nie angażować się codziennie, inni mogą zadawać dziesiątki pytań każdego dnia. Dlatego rzeczywista liczba zapytań może być znacznie wyższa.

Na podstawie tej liczby obliczyli dzienne zużycie energii elektrycznej przez ChatGPT, mnożąc całkowitą liczbę zapytań przez szacowane zużycie energii na monit, które wynosi 0,0029 kWh, zgodnie z Electric Power Research Institute (EPRI). Następnie dokonali ekstrapolacji zużycia energii w ujęciu miesięcznym i rocznym. Aby określić powiązane koszty tego zużycia energii elektrycznej, zastosowali średnią stawkę komercyjnej energii elektrycznej w USA w wysokości 0,132 USD za kWh od października 2024 r.

Źródło: BestBrokers

Autor: Paul Hoffman
BestBrokers