Żarłoczna inteligencja. Niedługo AI będzie zużywać niewiele mniej energii niż Polska

Żarłoczna inteligencja. Niedługo AI będzie zużywać niewiele mniej energii niż Polska

Centrum danych wymaga do obsługi bardzo dużej ilości prądu.
Centrum danych wymaga do obsługi bardzo dużej ilości prądu.
Źródło zdjęć: © Canva | Canva
08.11.2023 08:41

- Musimy bardzo uważać na to, do czego wykorzystujemy sztuczną inteligencję - przekonuje Alex de Vries, badacz z Holandii. I nie chodzi mu o zagrożenia związane z bezpieczeństwem czy naruszaniem praw autorskich, lecz zapotrzebowanie na prąd. Bo będzie ono ogromne.

Sztuczna inteligencja (AI) może pomóc programistom szybciej kodować, kierowcom bezpieczniej jeździć, a nam wszystkim poświęcać mniej czasu na wykonywanie codziennych zadań.

Ale obok listy potencjalnych korzyści niemniej długa jest też lista potencjalnych ryzyk. To m.in. zagrożenia dla naszego bezpieczeństwa cyfrowego, tworzenie i rozpowszechnianie fake newsów oraz materiałów wideo wykorzystujących technologię deepfake i obawy o naruszanie praw autorskich twórców.

Na tej drugiej liście warto odnotować także kolejny punkt: rosnące zapotrzebowanie na energię elektryczną i związane z tym emisje dwutlenku węgla.

Dalsza część artykułu pod materiałem wideo

Żarłoczna Inteligencja

Alex de Vries to analityk danych w holenderskim banku centralnym i doktorant na Uniwersytecie Vrije w Amsterdamie. To również założyciel portalu Digiconomist, który swego czasu zwrócił uwagę opinii publicznej na potężne zużycie prądu związane z kryptowalutami. Teraz de Vries przestrzega przed podobnym scenariuszem w przypadku sztucznej inteligencji.

Jak wynika z jego nowej analizy, opublikowanej w czasopiśmie naukowym Joule, roczne zapotrzebowanie sztucznej inteligencji na energię elektryczną może wynieść od 85 do 134 TWh. I to w nieodległej przyszłości, bo już w 2027 r. Oznaczałoby to porównywalne zapotrzebowanie na prąd z takimi krajami jak Chile, Finlandia i Belgia (dla niższego pułapu) czy Argentyna, Szwecja i Ukraina (dla wyższego pułapu).

Z kolei w naszym kraju w 2022 r. wytworzono rekordowe 175 TWh. Oznacza to, że sztuczna inteligencja już za kilka lat może zużywać ilość prądu odpowiadającą od 1/2 do 3/4 obecnej produkcji Polski.

AI jak kryptowaluty

Energochłonność sztucznej inteligencji odbije się wyraźnie również na energochłonności całej branży technologicznej.

Obecnie zarówno centra danych, jak i transfer danych sieciowych, wykorzystują rocznie około 240-360 TWh prądu. Odpowiada to 1-1,5 proc. zużycia energii elektrycznej na świecie. Dodatkowe 0,4 proc. (100-150 TWh) pochodzi z kopania kryptowalut, do czego wykorzystuje się ogromne moce wielu połączonych ze sobą urządzeń.

Inaczej rzecz ujmując, AI tylko do 2027 r. może rozwinąć się tak, że będzie wymagała mniej więcej tyle prądu, co kryptowaluty. I mniej więcej 1/3 prądu, z którego korzystają aktualnie wszystkie cyfrowe centra danych na świecie.

ChatGPT to przedsmak

Holenderski analityk opracował dane na podstawie planowanej przez branżę produkcji serwerów AI. Zapotrzebowanie na nie będzie lawinowo rosnąć, bo sztuczna inteligencja coraz bardziej wkrada się w nasze internetowe życie.

Popularny ChatGPT to skromny ułamek zachodzącej rewolucji. AI znacząco wspiera już wiele platform i aplikacji, w tym m.in. Photoshopa, Canvę, Gmaila i Worda. Chatboty opracowano też dla wyszukiwarek Google i Microsoftu, choć ich zastosowanie jest jeszcze mocno ograniczone. A to tylko garstka rozwiązań, do których można wykorzystywać AI.

"Chociaż sztuczna inteligencja sama w sobie może pomóc w zmniejszeniu zużycia energii w centrach danych, szybkie i powszechne przyjęcie chatbotów AI, takich jak ChatGPT i Google Bard, prawdopodobnie przyspieszy wzrost zapotrzebowania na energię dla sztucznej inteligencji" – przewiduje Międzynarodowa Agencja Energetyczna.

Im bardziej wydajne, tym większy popyt

Gdyby sztuczną inteligencję wykorzystywano do odpowiedzi na każde z 9 miliardów haseł wpisywanych codziennie do wyszukiwarki Google, wymagałoby to ok. 29,2 TWh energii elektrycznej rocznie. Tyle, co zużywa Irlandia.

W najbliższym czasie tak się jednak nie stanie. Nie dość, że Google musiałby zainwestować 100 miliardów dolarów w sprzęt, to jeszcze globalny łańcuch dostaw nie byłby w stanie zaspokoić tak dużych potrzeb w krótkim okresie. 

Choć najgorszy scenariusz raczej się więc nie ziści, zdaniem de Vriesa nie ma też podstaw, by wierzyć w spełnienie najlepszego. Firmy na całym świecie pracują nad poprawą wydajności sprzętu i oprogramowania AI, aby uczynić je mniej energochłonnymi. Jak zauważa ekspert, wzrost wydajności maszyn często prowadzi jednak do zwiększenia popytu.

- Niektórzy mówią, że wzrost popytu zostanie całkowicie zrównoważony poprzez poprawę wydajności, ale jest to bardzo optymistyczne podejście - mówi de Vries w rozmowie z Scientific American. - Za każdym razem, gdy nowa, istotna technologia zwiększa wydajność procesu, w rzeczywistości prowadzi to do tego, że coraz więcej ludzi domaga się tego, co jest produkowane. Efektywność zwiększa popyt, więc w ostatecznym rozrachunku zwiększanie wydajności nie oznacza oszczędzania energii.

AI tylko tam, gdzie naprawdę potrzebne

W artykule de Vries, z powodu braku danych, nie uwzględnił chłodzenia serwerów. To również może mocno przyczynić się do wzrostu zapotrzebowania na prąd. Pytanie, o ile.

- Wielką niewiadomą jest to, gdzie trafią te serwery. To ma ogromne znaczenie, ponieważ jeśli pracują w Google, dodatkowe zużycie energii chłodzącej będzie wynosić około 10 proc. Jednak globalne centra danych dodałyby średnio 50 proc. A istnieją centra danych, które działają jeszcze gorzej - zauważa analityk.

Z powodu braku danych nie wiadomo też, jakie będą źródła energii elektrycznej. Im większa część prądu pochodzić będzie z węgla, tym gorzej. Im większa pozyska się z niskoemisyjnych źródeł - m.in. słońca, wiatru i elektrowni jądrowych - tym lepiej. A nawet jeśli większość energii będzie "czysta", zamiast przyspieszać odchodzenie od paliw kopalnych, posłuży ona jedynie zaspokojeniu nowych potrzeb.

Dlatego zdaniem holenderskiego eksperta warto rozważyć wprowadzenie przepisów, które wymuszą na twórcach sztucznej inteligencji ujawnianie informacji na temat zużycia energii i źródeł jej pochodzenia.

Jednocześnie bardzo ważne jest zastanowienie się nad tym, do czego sztuczna inteligencja jest nam tak naprawdę potrzebna. - Potencjalny wzrost AI sprawia, że ​​musimy bardzo uważać na to, do czego wykorzystujemy sztuczną inteligencję. Jest ona energochłonna, dlatego nie chcemy wkładać jej wszędzie tam, gdzie tak naprawdę nie jest potrzebna - mówi de Vries.

Źródło artykułu:ziemianarozdrozu.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (2)