Sam Altman wyjaśnia zużycie wody przez ChatGPT: liczby, debata i pytania dotyczące wpływu sztucznej inteligencji na środowisko

Ostatnia aktualizacja: 20.09.2023

  • Dyrektor generalny OpenAI, Sam Altman, twierdzi, że każde zapytanie ChatGPT zużywa około 0,00032 litra wody, co stanowi równowartość „jednej piętnastej łyżeczki”.
  • Zużycie energii podczas interakcji z ChatGPT wynosi około 0,34 watogodzin, co odpowiada zużyciu energii podczas używania żarówki LED przez kilka minut.
  • Eksperci i członkowie społeczności naukowej podkreślają, że nie przedstawiono żadnych jednoznacznych dowodów na poparcie tych liczb, ani nie opisano szczegółowo ich metodologii.
  • Nadal trwa debata na temat wpływu sztucznej inteligencji na środowisko, szczególnie w kontekście chłodzenia centrów danych i szkolenia dużych modeli.
czat o zużyciu wody gpt sam altman-0

Szybki postęp sztucznej inteligencji przyniósł ze sobą obawy dotyczące jego wpływu na środowiskoze szczególną uwagą na Zużycie energii i wody podczas korzystania z popularnych modeli, takich jak ChatGPT, opracowane przez OpenAI. W ostatnich miesiącach dyrektor generalny firmy, Sam Altman, starał się rzucić światło na prawdziwy zakres zużycia zasobów naturalnych przez jej technologię, choć nie bez pewnych kontrowersji lub braku pytań.

Wypowiedzi Altmana na jego osobistym blogu wywołały ożywioną debatę w środowisku naukowym i technologicznym.Wraz ze wzrostem popularności ChatGPT na całym świecie, opinia publiczna i media skupiają się na ekologicznym wpływie każdego zapytania oraz na tym, czy dostarczone dane rzeczywiście odzwierciedlają wpływ, jaki sztuczna inteligencja może mieć na codzienne życie.

Ile wody faktycznie zużywa ChatGPT na jedno zapytanie?

Niedawno Sam Altman stwierdził, że Za każdym razem, gdy użytkownik korzysta z ChatGPT, zużycie wody jest minimalne.Jak wyjaśnił, Podczas jednej konsultacji zużywa się około 0,00032 litra wody, mniej więcej równoważne „jednej piętnastej łyżeczki”. Ta ilość jest używana głównie w systemach chłodzenia centrów danych, gdzie serwery przetwarzają i generują odpowiedzi AI.

Ekskluzywna zawartość — kliknij tutaj  Jak otrzymywać alerty w czasie rzeczywistym o zjawiskach astronomicznych za pomocą Astro Colibri

Obraz dotyczący zużycia wody IA

Chłodzenie jest kluczowe aby zapobiec przegrzaniu podzespołów elektronicznych, zwłaszcza gdy mówimy o dużych infrastrukturach, które działają nieprzerwanie i na pełnych obrotach. Ta potrzeba chłodzenia maszyn wodą nie jest wyłączna dla ChatGPT, ale jest wspólna dla wszystkich cały sektor przetwarzania w chmurze i sztucznej inteligencji. Jednak skala codziennych zapytań — miliony, według OpenAI — oznacza, że nawet minimalne zużycie ma zauważalny wpływ.

Chociaż Altman chciał podkreślić, że koszt na użytkownika jest prawie nieistotny, Eksperci i wcześniejsze badania opublikowały wyższe liczby w niezależnych badaniachNa przykład ostatnie analizy amerykańskich uniwersytetów sugerują, że Do trenowania dużych modeli, takich jak GPT-3 lub GPT-4, potrzebne mogą być setki tysięcy litrów wody., chociaż konkretne wykorzystanie w przeliczeniu na dzienną konsultację jest znacznie niższe.

Kontrowersje wokół liczb: wątpliwości co do przejrzystości i metodologii

Systemy chłodzenia IA i zużycie wody

Wypowiedzi Altmana zostały przyjęte z ostrożnością zarówno przez społeczność naukową, jak i media specjalistyczne, ze względu na brak szczegółowych wyjaśnień, w jaki sposób uzyskano te wartościW kilku artykułach wskazano, że OpenAI nie opublikowało dokładnej metodologii obliczania zużycia wody i energii, co skłoniło niektóre media i organizacje do apelu o większą przejrzystość w tej dziedzinie.

Ekskluzywna zawartość — kliknij tutaj  Jakie są funkcjonalności Alexy?

Publikacje medialne, takie jak The Washington Post, The Verge i uniwersytety, takie jak MIT czy California, wskazały na wyższe szacunki, sięgające od 0,5 litra na każde 20-50 konsultacji (w przypadku starszych modeli np. GPT-3) i kilkaset tysięcy litrów na fazę szkolenia AI.

Debata energetyczna: efektywność, kontekst i porównania

Kolejnym punktem poruszonym przez Sama Altmana jest Zużycie energii związane z każdą interakcją z ChatGPTWedług ich szacunków, Średnia konsultacja obejmuje około 0,34 watogodzin, podobnie jak energia zużywana przez żarówkę LED w ciągu dwóch minut lub domowy piekarnik pozostawiony włączony na jedną sekundę. Aby lepiej zrozumieć wpływ AI, możesz również skonsultować się z wpływ sztucznej inteligencji na zrównoważony rozwój.

Jednakże, W ostatnich latach wzrosła efektywność modeli A dzisiejszy sprzęt jest w stanie przetwarzać żądania z mniejszą mocą niż zaledwie kilka lat temu. Oznacza to, że chociaż indywidualne wykorzystanie jest niskie, wyzwaniem jest ogromna liczba jednoczesnych interakcji, które występują na platformach takich jak ChatGPT, Gemini lub Claude.

Najnowsze badania potwierdzają pewne zmniejszenie średniego zużycia na konsultację, choć podkreślają, że Każda przeglądarka, każde urządzenie i każdy region mogą mieć inne liczby. w zależności od typu centrum danych i zastosowanego systemu chłodzenia.

Łączny ślad węglowy i wyzwanie długoterminowej zrównoważoności

Efektywność energetyczna i wodna ChatGPT

Prawdziwy dylemat pojawia się w momencie ekstrapolacji tych minimalnych liczb na konsultację na całkowitą liczbę codziennych interakcji na całym świecie. Suma milionów małych kropel może stać się znaczną ilością wody., zwłaszcza że sztuczna inteligencja jest wykorzystywana do coraz bardziej złożonych zadań i obejmuje takie sektory jak edukacja, rozrywka i opieka zdrowotna.

Ekskluzywna zawartość — kliknij tutaj  Zapora Trzech Przełomów w Chinach i jej zaskakujący wpływ na obrót Ziemi

Ponadto, Proces szkolenia najnowocześniejszych modeli sztucznej inteligencji, takich jak GPT-4 czy GPT-5, w dalszym ciągu wymaga ogromnych zasobów.zarówno pod względem energii elektrycznej, jak i wody, zmuszając firmy technologiczne do poszukiwania nowych źródeł energii — takich jak energia jądrowa — i rozważania lokalizacji swoich centrów danych w miejscach, w których infrastruktura wodna będzie gwarantowana.

La Brak jasnych standardów, oficjalnych danych i przejrzystości obliczeń w dalszym ciągu wzbudza kontrowersjeOrganizacje takie jak EpochAI i firmy konsultingowe próbowały oszacować wpływ, ale nadal nie ma konsensusu co do prawdziwego kosztu środowiskowego interakcji z generatywną sztuczną inteligencją na dużą skalę. Tymczasem debata otwiera okno na refleksję nad przyszłością technologii i odpowiedzialnością środowiskową jej głównych zwolenników.

Dyskusja na temat Sam Altman i sztuczna inteligencja w ogóle podkreśla napięcia między innowacją technologiczną a zrównoważonym rozwojem. Podczas gdy dane podane przez Sama Altmana mają na celu uspokojenie opinii publicznej co do niskiego wpływu każdej indywidualnej konsultacji, brak przejrzystości i globalna skala usługi sprawiają, że uwaga skupia się na potrzebie monitorowania i naukowej rygorystyczności przy ocenie śladu ekologicznego systemów, które są już częścią naszego codziennego życia.

Przepisy środowiskowe w zarządzaniu zamówieniami online
Powiązany artykuł:
Jak przepisy ochrony środowiska mogą wpłynąć na Twoje zamówienia online