Meta Compute: Duży zakład Meta na superinteligencję AI

Ostatnia aktualizacja: 20.09.2023

  • Meta uruchamia Meta Compute, aby zbudować infrastrukturę AI o skali gigawatów
  • Projektem będą kierować Santosh Janardhan i Daniel Gross, pod nadzorem Diny Powell McCormick.
  • Firma planuje zainwestować setki miliardów dolarów i osiągnąć moc obliczeniową równą setkom gigawatów.
  • Meta opiera się na długoterminowych umowach energetycznych, w tym na energii jądrowej, aby zasilać swoje centra danych

Bramka zdecydował się na krok naprzód w swoim postawić na sztuczną inteligencję nowej generacji z Uruchomienie Meta ComputeTo inicjatywa na wysokim szczeblu, dzięki której firma Marka Zuckerberga chce znaleźć się w czołówce wyścigu o superinteligencję. Propozycja ta ma na celu przeprojektować swoją infrastrukturę technologiczną od góry do dołu, aby obsługiwać coraz potężniejsze i wszechobecne modele sztucznej inteligencji.

Jak sam dyrektor generalny wyjaśnił w kilku publicznych komunikatach, celem jest wdrożenie bezprecedensowa moc obliczeniowa, w oparciu o nowe centra danych, specjalistyczny sprzęt i szeroko zakrojone umowy energetyczne. Plan nie ogranicza się do dodawania serwerów: Celem jest stworzenie platformy, która będzie w stanie zaoferować miliardom użytkowników to, co Meta nazywa „osobistą superinteligencją” na całym świecie.

Na czym dokładnie polega inicjatywa Meta Compute?

Inicjatywa Meta Compute

Meta Compute jest przedstawiany jako strategiczny parasol, pod którym wszystkie infrastruktura obliczeniowa dla AI Firma już wcześniej sygnalizowała zamiar agresywnego zwiększenia dostępnej mocy w swoich centrach danych, ale teraz artykułuje tę ambicję w formalnym programie, z określonym kierownictwem i bardzo jasnymi celami w zakresie pojemności.

Mark Zuckerberg szczegółowo opisał, że Meta przewiduje zbudować „dziesiątki gigawatów” mocy obliczeniowej w ciągu tej dekadyz zamiarem osiągnięcia docelowo „setek gigawatów lub więcej”. Mówimy tu o skali energii zbliżonej do tej zużywanej przez całe miasta, a nawet małe kraje, przeznaczonej głównie do szkolenia i uruchamiania zaawansowanych modeli sztucznej inteligencji.

Infrastruktura ta będzie opierać się na globalnej sieci centra danych nowej generacjiZaprojektowane z myślą o wysokowydajnych układach i architekturach zoptymalizowanych pod kątem ogromnych obciążeń AI. Meta ogłosiła już, że w tym roku rozpoczną działalność obiekty o mocy przekraczającej jeden gigawat, a Meta Compute będzie platformą koordynującą ich budowę, eksploatację i rozwój.

Projekt jest ściśle powiązany z planami, które Meta ogłosiła w lipcu ubiegłego roku, kiedy uruchomiła Laboratoria superinteligencji, zespół specjalizujący się w rozwoju bardziej zaawansowane modele sztucznej inteligencjiPod kierownictwem ekspertów branżowych, takich jak Alexander Wang i Nat Friedman, Meta Compute staje się w tym kontekście elementem infrastruktury, który musi wspierać te aspiracje superinteligencji.

Jednocześnie spółka wskazała, że ​​spodziewa się inwestycji „setki miliardów dolarów” w informatyce w nadchodzących latach. Liczby te obejmują zarówno budowę centrów danych, jak i projektowanie własnych układów scalonych, ulepszenia w warstwie oprogramowania oraz narzędzia dla zespołów programistycznych, które pozwolą im lepiej wykorzystać tę moc obliczeniową.

Ekskluzywna zawartość — kliknij tutaj  Jak odzyskać usunięte pliki w aplikacji Amazon Drive?

Bardzo energochłonny plan

Skalowanie infrastruktury do tego poziomu oznacza pełne zmierzenie się z problemem zużycie energii związane ze sztuczną inteligencjąSama firma Meta przyznaje, że ilość energii potrzebna do zasilenia przyszłej floty serwerów Meta Compute będzie porównywalna z ilością energii potrzebnej w kilku średniej wielkości miastach, co jest wynikiem rosnących obaw o wpływ centrów danych na środowisko.

Aby zagwarantować długoterminowe dostawy, firma Zamyka duże transakcje z dostawcami energiiNa przykład w Stanach Zjednoczonych podpisano wieloletnie kontrakty na zakup energii elektrycznej od elektrownie jądrowe i zaawansowane projektyw tym małe reaktory modułowe, które mogłyby zostać uruchomione w ciągu następnej dekady. Tego typu inicjatywy mają na celu zapewnienie względnie stabilnego źródła energii wolnego od bezpośredniej emisji dwutlenku węgla.

Strategia energetyczna Meta jest zgodna ze strategią innych dużych firm technologicznych, które w obliczu zwiększonego zapotrzebowania na energię elektryczną ze strony sztucznej inteligencji i centrów danych starają się aby zapewnić im dostęp do niezawodnych źródeł zasilaniaPrzejście na energię jądrową, które do niedawna wydawało się nieprawdopodobne w sektorze cyfrowym, jest zyskuje popularność jako opcja podtrzymania rozwoju informatyki bez powodowania gwałtownego wzrostu emisji CO₂.

Jednocześnie Meta zdaje sobie sprawę z krytyki związanej z intensywnym wykorzystaniem zasobów, takich jak woda, do chłodzenia centrów danych, a także z wpływu na regionalne sieci energetyczne. W ramach Meta Compute firma deklaruje, że będzie pracować nad bardziej wydajne projekty oraz technologie chłodzenia i zarządzania ciepłem które zmniejszają ślad ekologiczny ich obiektów.

Ten punkt nie jest bez znaczenia dla Europy, a w szczególności dla krajów takich jak Hiszpania, gdzie debata na temat zrównoważony rozwój infrastruktury cyfrowej Jest coraz bardziej powszechne, a inwestycje w centra danych są poddawane coraz dokładniejszej analizie pod kątem zużycia energii i wody.

Kto zarządza w Meta Compute: nowy schemat organizacyjny

infrastruktura sztucznej inteligencji Meta Compute

Aby zrozumieć znaczenie Meta Compute w firmie, wystarczy spojrzeć na klasę zespołu zarządzającego, który obejmie to stanowisko. Inicjatywa będzie współprowadzona przez Santosha Janardhana i Daniela Grossa, dwa profile o silnym znaczeniu technicznym i strategicznym, a nadzór polityczny i finansowy będzie sprawować Dina Powell McCormick.

Janardhan, obecny Dyrektor ds. infrastruktury globalnej w MetaBędzie nadal nadzorować architekturę techniczną systemów, program krzemowy (tj. rozwój i dobór układów scalonych), stos oprogramowania związanego z centrami danych oraz wydajność programistów. Będzie również odpowiadać za budowę i eksploatację globalnej floty centrów danych oraz sieci, która je łączy.

Ekskluzywna zawartość — kliknij tutaj  Apple testuje Veritas, nową aplikację Siri z wewnętrznym chatbotem w stylu ChatGPT.

Ze swojej strony, Daniel Gross, były dyrektor generalny Safe Superintelligence, obejmuje dowodzenie nad nową grupą w Meta Compute odpowiedzialną za długoterminowa strategia zdolności produkcyjnychDo jego funkcji należeć będzie analiza branży, planowanie rozbudowy infrastruktury, tworzenie sojuszy z kluczowymi dostawcami i modelowanie biznesowe związane z całą tą inwestycją.

Trzecim filarem przywództwa jest Dina Powell McCormick, niedawno mianowana prezesem i wiceprezesem Meta. Jej rola, jak wyjaśnił Zuckerberg, będzie koncentrować się na relacje z rządami i podmiotami suwerennymiW praktyce oznacza to negocjować ramy regulacyjne, ułatwiać uzyskiwanie pozwoleń na nowe obiekty i tworzyć mechanizmy finansowania publiczno-prywatnego aby zbudować infrastrukturę.

Taka struktura zarządzania umieszcza Meta Compute bardzo blisko najwyższego szczebla decyzyjnego firmy. Zuckerberg wskazał, że sposób, w jaki Meta Compute… projektować, inwestować i współpracować Zbudowanie tej infrastruktury stanie się decydującym elementem ich strategicznej przewagi nad innymi podmiotami w branży.

Osobista superinteligencja dla miliardów użytkowników

Oprócz liczb gigawatów lub nazwisk liderów inicjatywy, ostatecznym celem Meta Compute jest wsparcie nowej generacji usług opartych na tym, co firma nazywa „osobista superinteligencja”Pomysł jest taki, że użytkownicy będą mieli dostęp do Asystenci i systemy AI dużo bardziej zaawansowane niż obecne, zintegrowane z platformami Meta, takimi jak Facebook, Instagram, WhatsApp i innymi produktami.

Wizja ta jest zgodna z tworzeniem Laboratoria superinteligencjizespół poświęcony badaniu modeli sztucznej inteligencji o bardziej zaawansowanych możliwościach poznawczych, które Zbliżają się do teoretycznej koncepcji superinteligencjiSystemy, które mogłyby przewyższyć ludzi w wielorakich zadaniach wymagających rozumowania i podejmowania decyzji. Aby zapewnić, że te możliwości nie pozostaną ograniczone do laboratorium, Meta Compute musi zapewnić fizyczną i logiczną podstawę, która umożliwi ich wykorzystanie na dużą skalę.

Zuckerberg upierał się, że ambicją firmy jest zapewnienie dostępu do tej osobistej superinteligencji „miliardy ludzi”Polega to nie tylko na szkoleniu gigantycznych modeli, ale także na ich rozmieszczaniu w taki sposób, że... wydajny i bezpiecznyaby mogły działać w czasie rzeczywistym dla użytkowników na całym świecie, korzystających z różnych urządzeń i przy różnych warunkach łączności.

W Europie takie podejście stwarza dodatkowe wyzwania, ponieważ wdrażanie zaawansowanych usług sztucznej inteligencji musi być zgodne z bardziej rygorystycznymi ramami regulacyjnymi dotyczącymi ochrona danych, przejrzystość algorytmiczna i bezpieczeństwoPrzyszłe wejście w życie ustawy Unii Europejskiej o sztucznej inteligencji zmusi firmę Meta do dostosowania projektu i sposobu wykorzystania swoich modeli tak, aby były zgodne z przepisami UE.

Firma zdaje sobie sprawę, że jeśli chce, aby jej osobista superinteligencja miała silną obecność na rynkach takich jak Europa, będzie musiała połączyć Meta Moc obliczeniowa przy ścisłym przestrzeganiu obowiązków prawnych i jasnej komunikacji na temat funkcjonowania tych systemów.

Ekskluzywna zawartość — kliknij tutaj  Aplikacja Google Photos Recap została odświeżona i wzbogacona o więcej funkcji sztucznej inteligencji i opcji edycji

Ogromne inwestycje i globalny wyścig o infrastrukturę AI

Meta Mesa

Wprowadzenie Meta Compute na rynek ma miejsce w momencie, gdy duże firmy technologiczne rywalizują o pozyskanie zasoby komputerowe, energia i talent dla swoich projektów AI. Po chłodnym przyjęciu niektórych wersji modeli Llama, Meta zintensyfikowała działania na rzecz infrastruktury, aby odzyskać przewagę nad innymi graczami w branży.

Firma posunęła się tak daleko, że zobowiązała się 72.000 miliardy dolarów nakładów inwestycyjnych między teraz a 2025 rokiem, koncentrując się na centrach danych i systemach AI, i ma zaawansowane prognozy inwestycyjne, które mogą osiągnąć 600.000 miliardów dolarów na infrastrukturę i miejsca pracy związanych ze sztuczną inteligencją do 2028 roku. Meta Compute staje się zatem narzędziem organizacyjnym dla tego ogromnego wysiłku inwestycyjnego.

Równocześnie spółka podpisała 20-letnie umowy na dostawę energii elektrycznej z elektrowniami, zwłaszcza w Stanach Zjednoczonych, aby zapewnić dostępność energii potrzebnej do zasilania ich centrów danych po stosunkowo przewidywalnych cenach. Strategię tę stosują również inni giganci technologiczni, zdając sobie sprawę, że sztuczna inteligencja zmienia wzorce zapotrzebowania na energię elektryczną, które po dekadach stabilności zaczęły ponownie rosnąć.

W przypadku Europy dynamika ta może przełożyć się na wzrost liczby projektów centrów danych w krajach, w których stabilne ramy regulacyjne i dobra dostępność energiitakich jak Hiszpania, Irlandia czy kraje nordyckie. Chociaż Meta nie określiła jeszcze dokładnej lokalizacji nowych obiektów Meta Compute, rynek europejski jest jednym z priorytetów ze względu na jego wielkość i zaawansowanie infrastruktury telekomunikacyjnej.

Strategia Meta jest również pod ścisłą obserwacją analityków finansowych. Międzynarodowe firmy inwestycyjne uważnie monitorują ewolucję kosztów kapitałowych, oczekiwany zwrot z inwestycji w sztuczną inteligencję oraz wpływ na wartość giełdową spółki. Obecnie większość nadal dostrzega potencjał wzrostu, ale podkreśla również ryzyka związane z takimi skoncentrowanymi i długoterminowymi inwestycjami.

Meta Compute kształtuje się na jeden z najbardziej ambitnych ruchów w obecnym sektorze technologicznym: projekt łączący infrastruktura fizyczna, energia, regulacje i wizja produktu Aby spróbować umieścić Meta w centrum kolejnej fali sztucznej inteligencji. Jej sukces lub porażka w dużej mierze zadecydują o równowadze sił w branży w nadchodzącej dekadzie.

Powiązany artykuł:
Amazon Bee: To nowy asystent nadgarstkowy oparty na sztucznej inteligencji, który chce stać się Twoją cyfrową pamięcią.