Notebookcheck Logo

Sztuczna inteligencja i jej zużycie energii: jeden z wielu problemów

Wiele wysiłku w zamian za czasami bardzo łatwy do osiągnięcia zysk: sztuczna inteligencja. (Zdjęcie: pixabay/viarami)
Wiele wysiłku w zamian za czasami bardzo łatwy do osiągnięcia zysk: sztuczna inteligencja. (Zdjęcie: pixabay/viarami)
Z pewnością nie jest tajemnicą, że ChatGPT i inne systemy sztucznej inteligencji są pożeraczami energii. A kiedy Sam Altman, CEO OpenAI, przyznaje, że może to stać się problemem, z pewnością warto przeprowadzić matematykę i spojrzeć w przyszłość.
AI Science

ChatGPT potrzebuje obecnie energii elektrycznej dla 33 000 gospodarstw domowych. 70 000 lub 80 000 osób mogłoby korzystać z tej energii przez cały rok.

Jednak plany OpenAI opierają się oczywiście na przyszłości podobnej do teraźniejszości Google. Same zapytania wyszukiwania mogą generować znaczną ilość energii.

Według różnych źródeł, z których wszystkie odnoszą się do nieco starszych danych, na jedno zapytanie zużywane jest 0,3 Wh - 8,5 miliarda zapytań dziennie na całym świecie.

Dałoby to łącznie prawie 1 terawatogodzinę rocznie na samo przetworzenie zapytań. Jeśli ekstrapolują to Państwo na gospodarstwa domowe, będzie to już 90 000 do 100 000. To zużycie energii elektrycznej przez gospodarstwa domowe w Reno lub Buffalo.

Niemniej jednak, liczba dla Google, która wciąż jest wyraźnie gigantyczna, jest tylko trzy razy wyższa niż dla ChatGPT. W przypadku obu firm mówimy o jednym aspekcie całej firmy.

Według danych firmy Google, całkowite zużycie wynosi w rzeczywistości 6 terawatogodzin, czyli 6 razy więcej niż same zapytania. Dotyczy to jednak całego świata. Jeśli weźmiemy na przykład całkowite zużycie energii elektrycznej w USA, liczba ta odpowiada nieco ponad 0,1 procenta.

OpenAI podaje jednak współczynnik od 4 do 5 na zapytanie wyszukiwania. Ponadto liczba zapytań również podwaja się co kilka lat.

Gdyby więc obecny wolumen wyszukiwania był obsługiwany przez ChatGPT i jego konkurentów, wartość używana dla Google mogłaby z łatwością wzrosnąć pięciokrotnie.

Byłoby to 30 terawatogodzin. Całe Los Angeles z 4 milionami mieszkańców może sobie poradzić z taką ilością energii elektrycznej. Z drugiej strony, 30 TWh to tylko niewielki ułamek globalnej produkcji energii, ale reprezentuje globalne wykorzystanie sztucznej inteligencji.

A jednak: jeśli rozwój będzie postępował, w przyszłości odpowiedzi na zapytania będą udzielane wyłącznie przez sztuczną inteligencję, a liczba ta będzie nadal rosła w tym samym tempie, będzie to bliżej 60 lub 100 TWh. Wydaje się, że istnieje tu niezaprzeczalny potencjał oszczędności.

Oczywiście technologia może być również wykorzystywana do oszczędzania energii elektrycznej. Jeśli otrzymam lepsze wyniki wyszukiwania, nie będę musiał klikać na cztery lub pięć stron internetowych, mogę po prostu kliknąć na pierwszą. Mogę wygenerować zdjęcie i nie muszę go samodzielnie tworzyć i edytować. Mogę edytować dokumenty z kolegami i przyjaciółmi bez konieczności przebywania na miejscu, co oczywiście również oszczędza energię (choć do tego nie jest wymagana sztuczna inteligencja).

Niemniej jednak ważne jest, aby podnosić świadomość faktu, że sztuczna inteligencja może i musi być bardziej wydajna. Po prostu ufanie, że dostępna jest wystarczająca ilość taniej energii, może okazać się zbyt wygodnym błędem.

W tym względzie pobudka Sama Altmana jest dobrym sygnałem. Jego plan wykorzystania fuzji jądrowej https://www.energytrend.com/news/20230511-31989.htmlaby wszystko zrównoważyć, wydaje się raczej naiwny.

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 02 > Sztuczna inteligencja i jej zużycie energii: jeden z wielu problemów
Mario Petzold, 2024-02-22 (Update: 2024-02-22)