Partner serwisu
Tylko u nas
20 grudnia 2024

Zdaniem Szczęśniaka: Sztuczna inteligencja pożera energię

Kategoria: Aktualności

Niepokojące informacje dochodzą do nas ze sfery sztucznej inteligencji (angielski skrót AI, czyli po polsku - EjAj). Że potrzeby energetyczne tej nowej branży Big Tech są kolosalne, że wręcz „pożera” energię. Potem zwykle rzuca się jakieś fantastyczne prognozy o zapotrzebowaniu drastycznie rosnącym, przebijającym wręcz sufit. W nich, jak zawsze kluczowe jest słówko „może”. Jak choćby ta, że dzisiaj EjAj zużywa w USA 4 TWh, a w 2030 ma już ponoć potrzebować 93 TWh. Ponad 20 razy więcej? W siedem lat?

Zdaniem Szczęśniaka: Sztuczna inteligencja pożera energię

Przyjrzyjmy się na początek faktom dającym powód do takich alarmów. Rzeczywiście, zapotrzebowanie na energię jednej sesji ChatGPT jest 10-krotnie większe niż wyszukiwania w Google. Wyszukiwarka potrzebuje 0,3 watogodziny, co wystarcza na 17 sekund pracy 60-watowej żarówki. Zapytanie w ChatGPT wymaga wykonania pracy wielkości 2,9 watogodziny, to 10-krotnie więcej, czyli żarówka pali się już przez 3 minuty. Google obsługuje codziennie 3,5 miliarda zapytań, czyli średnio musi mieć do dyspozycji moc ponad 400-MW bloku energetycznego.

Im wyższa wersja ChatGPT, tym więcej energii zużywa, ale cóż się dziwić, GPT-3 ma 175 miliardów parametrów, gdy GPT-4, aż 280 miliardów. A przygotowujący się właśnie do startu ChatGPT-5 tych parametrów w sieci neuronowej będzie miał podobno 1500 miliardów.

Cóż się dziwić, w końcu oddajemy AI prawo do myślenia za człowieka. Te algorytmy wykonują za nas pracę. Tak jak wyszukiwarka internetowa, tak i sztuczna inteligencja. A wiadomo, myślenie to ciężka prac, przynajmniej jeśli sądzić po zużyciu energii przez organizm człowieka. Nasz mózg jest najbardziej energożernym organem naszego ciała. Zużywa 20 procent energii, potrzebnej nam do życia, choć to zaledwie 2 procent masy naszego ciała. Licząc w kategoriach energetycznych to 300 watogodzin (Wh) dziennie. Porównując do najpotrzebniejszego na świecie urządzenia – 30 razy więcej niż smartfon (~10 Wh).

I to zużywa przede wszystkim do procesów myślenia. Tak na marginesie, bardzo trudno jest mierzyć, ile energii zużywa mózg, dlatego posłużono się do tego metodą mierzenia zużycia tlenu. I też nie bezpośrednio, ale mierząc ilość wydzielonego CO2. Mózg bowiem tworzy sobie energię poprzez reakcję chemiczną cukrów i tlenu, wytwarzając adenozyno-5′-trifosforan - nośnik energii chemicznej, używanej w metabolizmie komórki. Dlatego można stwierdzić, że właśnie podczas zajęć intelektualnych mózg zużywa najwięcej energii. Fascynujące, nieprawdaż?

Wykonywanie poleceń wydanych przez przeglądających internet to jeszcze „małe piwo” wobec tego, ile energii zżera AI (EjAj) w czasie uczenia się. Powód jest prosty – to co wykonuje nasz mózg, zużywając mniej energii niż ekran TV, sztuczna inteligencja musi się nauczyć, popełniając wiele, bardzo wiele prób i błędów. Przeprowadzane są skomplikowane wyliczenia, na ogromnych ilościach danych, trwające tygodniami lub miesiącami. Pożerają mnóstwo energii. Decyduje o tym proces tworzenia takich systemów. Na początek tworzy wiele przypadkowych sieci neuronowych dla analizy danych, odpowiedzi na pytania, rozwiązywania problemów, tworzenia grafik, etc. etc…

Działają one początkowo koszmarnie. Ale niektóre z nich działają mniej koszmarnie niż inne. Z tych więc tworzy się następną generację sieci neuronowych. I powstają kolejne pokolenia, przy pomocy wielu metod. Na przykład propagacja wsteczna (optymalizacja do oczekiwanych rezultatów), genetyczna „hodowla” algorytmów (jak rasy krów czy psów) czy po prostu ich mutacja. Aby zbadać, jak zmiany wpłynęły na trafność rozwiązań, należy wykonać ogromną ilość prób. To proste, wystarczy robić to wystarczająco długo. I powoli zaczyna się pojawiać coś na kształt sensu w tym, co wypluwa z siebie układ algorytmów sieci neuronowej na nasze zapytanie.

To kosztowny (podobnie jak u człowieka) proces uczenia się, a naukowcy i programiści są jeszcze głęboko w lesie, poszukując tych połączeń, które tak sprawnie pracują w ludzkim mózgu. To poszukiwanie wymaga energii. Elektryczności, mówiąc precyzyjnie. Ale brak jakości można zastąpić ilością, używając całe farmy komputerów, potrzebujące setki megawatów mocy. Aby znaleźć to, co ludzki mózg potrafi używając mniej energii, niż panel telewizora. Przerzucając, oceniając, selekcjonując miliony sieci neuronowych, zawierających miliony neuronów każda, nadrabia się marną jakość pierwszych prototypów. Do tego zużywa się coraz więcej powierzchni i energii w centrach danych.

To wszystko w rekach Big Tech, który wytwarza dla siebie potężne narzędzia, które będą „wiedzieć lepiej” niż 99 procent, a może 99,9999% ludzkości. Ale do tego potrzebne są stabilne źródła energii…

I o tym w następnym odcinku…

fot. 123rf
ZAMKNIJ X
Strona używa plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies. OK, AKCEPTUJĘ