Strona główna Technologia Zapotrzebowanie na energię AI jest poza kontrolą. Witamy w erze hiperkonsumpcji Internetu

Zapotrzebowanie na energię AI jest poza kontrolą. Witamy w erze hiperkonsumpcji Internetu

16
0

W tej chwili generatywny sztuczna inteligencja jest niemożliwa do zignorowania w Internecie. Podsumowanie wygenerowane przez AI może losowo pojawiać się na górze wyników wyszukiwania za każdym razem, gdy wykonujesz wyszukiwanie w Google. Albo możesz zostać poproszony o wypróbowanie Narzędzie AI Meta podczas przeglądania Facebooka. I to wszechobecny emotikon z iskierkami nadal prześladuje mnie w snach.

Ten pośpiech w dążeniu do dodania sztucznej inteligencji do jak największej liczby interakcji on-line można powiązać z przełomowym wydaniem ChatGPT przez OpenAI pod koniec 2022 r. Dolina Krzemowa wkrótce stała się obsesyjnie zainteresowana generatywną sztuczną inteligencją, a prawie dwa lata później narzędzia sztucznej inteligencji oparte na dużych modelach językowych stały się nieodłączną częścią doświadczeń użytkowników on-line.

Jednym z niefortunnych skutków ubocznych tej proliferacji jest to, że procesy obliczeniowe wymagane do uruchomienia generatywnych systemów AI są znacznie bardziej zasobochłonne. Doprowadziło to do nadejścia ery hiperkonsumpcji Internetu, okresu zdefiniowanego przez rozprzestrzenianie się nowego rodzaju obliczeń, które wymagają nadmiernych ilości energii elektrycznej i wody do budowy i działania.

„W zapleczu algorytmy, które muszą działać w przypadku każdego generatywnego modelu sztucznej inteligencji, zasadniczo bardzo, bardzo różnią się od tradycyjnego rodzaju wyszukiwarki Google lub poczty e-mail” – mówi Sajjad Moazenibadacz inżynierii komputerowej na College of Washington. „W przypadku podstawowych usług były one bardzo lekkie pod względem ilości danych, które musiały być przesyłane tam i z powrotem między procesorami”. Dla porównania, Moazeni szacuje, że generatywne aplikacje AI są około 100 do 1000 razy bardziej intensywne obliczeniowo.

Zapotrzebowanie na energię w przypadku szkoleń i wdrożeń nie jest już brudnym sekretem generatywnej sztucznej inteligencji, ponieważ w zeszłym roku eksperci przewidywali wzrosty zapotrzebowania na energię w centrach danych, w których firmy pracują nad aplikacjami sztucznej inteligencji. Google, niemal jak na zawołanie, niedawno przestało uważać się za neutralny pod względem emisji dwutlenku węglai Microsoft może go podeptać cele zrównoważonego rozwoju pod nogami w trwającym wyścigu mającym na celu stworzenie największych i najlepszych narzędzi AI.

„Ślad węglowy i zużycie energii będą proporcjonalne do ilości wykonywanych obliczeń, ponieważ zasadniczo te centra danych są zasilane proporcjonalnie do ilości wykonywanych obliczeń” – mówi Junchen Jiangbadacz systemów sieciowych na College of Chicago. Im większy mannequin AI, tym więcej obliczeń jest często wymaganych, a te modele graniczne stają się absolutnie gigantyczne.

Mimo że całkowite zużycie energii przez Google wzrosło dwukrotnie w latach 2019–2023, rzeczniczka firmy Corina Standiford stwierdziła, że ​​nie byłoby uczciwe stwierdzenie, że Zużycie energii przez Google gwałtownie wzrosła w trakcie wyścigu AI. „Zmniejszenie emisji od naszych dostawców jest niezwykle trudne, co stanowi 75 procent naszego śladu węglowego” — mówi w e-mailu. Dostawcy, których Google obwinia, to producenci serwerów, sprzętu sieciowego i innej infrastruktury technicznej dla centrów danych — energochłonny proces, który jest wymagany do tworzenia fizycznych części dla pionierskich modeli AI.

Źródło