- Meta lanserer Meta Compute for å bygge en AI-infrastruktur på gigawattnivå
- Prosjektet vil bli ledet av Santosh Janardhan og Daniel Gross, under veiledning av Dina Powell McCormick.
- Selskapet planlegger å investere hundrevis av milliarder dollar og nå hundrevis av gigawatt med datakapasitet.
- Meta er avhengig av langsiktige energiavtaler, inkludert kjernekraft, for å drive datasentrene sine.
Mål har bestemt seg for å ta et sprang fremover i sin satse på neste generasjons kunstig intelligens med Meta Compute-lanseringDette er et initiativ på høyt nivå som Mark Zuckerbergs selskap bruker for å posisjonere seg i forkant av kappløpet om superintelligens. Forslaget har som mål å omforme sin teknologiske infrastruktur fra topp til bunn for å støtte stadig kraftigere og allestedsnærværende AI-modeller.
Som administrerende direktør selv har forklart i flere offentlige kommunikasjoner, er målet å utplassere en enestående datakraft, basert på nye datasentre, spesialisert maskinvare og storskala energiavtaler. Planen er ikke begrenset til å legge til servere: Den søker å skape en plattform som er i stand til å tilby det Meta kaller «personlig superintelligens» til milliarder av brukere. over hele verden.
Hva består egentlig Meta Compute-initiativet av?

Meta Compute presenteres som den strategiske paraplyen som alle datainfrastruktur for AI av selskapet de neste årene. Selskapet hadde allerede antydet at de hadde til hensikt å aggressivt øke den tilgjengelige kraften i datasentrene sine, men nå formulerer de denne ambisjonen i et formelt program, med definert lederskap og svært klare kapasitetsmål.
Mark Zuckerberg har detaljert at Meta forventer å bygge «titalls gigawatt» med datakraft i løpet av dette tiåretmed den hensikt å til slutt nå «hundrevis av gigawatt eller mer». Vi snakker om en energiskala som ligner på den som forbrukes av hele byer eller til og med små land, primært beregnet på trening og kjøring av avanserte AI-modeller.
Denne infrastrukturen vil være avhengig av et globalt nettverk av neste generasjons datasentredesignet for å huse høyytelsesbrikker og arkitekturer optimalisert for massive AI-arbeidsbelastninger. Meta hadde allerede annonsert anlegg med kapasiteter på over én gigawatt som vil bli satt i drift i år, og Meta Compute vil være rammeverket som koordinerer bygging, drift og utvikling av disse.
Prosjektet er nært knyttet til planene som Meta annonserte i juli i fjor, da de lanserte Superintelligenslaboratorier, et team som spesialiserer seg på utvikling av mer sofistikerte AI-modellerUnder veiledning av bransjeeksperter som Alexander Wang og Nat Friedman blir Meta Compute i denne sammenhengen infrastrukturkomponenten som må støtte disse ambisjonene om superintelligens.
Samtidig har selskapet indikert at de forventer å investere «hundrevis av milliarder dollar» i databehandling i de kommende årene. Disse tallene inkluderer både bygging av datasentre og design av egne brikker, forbedringer i programvarelaget og verktøy for utviklingsteam for å bedre utnytte denne datakraften.
En svært energikrevende plan
Å skalere opp infrastrukturen til dette nivået betyr å ta fullt tak i problemet med energiforbruk knyttet til AIMeta erkjenner selv at mengden energi som trengs for å drive Meta Computes fremtidige serverflåte vil være sammenlignbar med mengden i flere mellomstore byer, noe som kommer midt i økende bekymring for miljøpåvirkningen av datasentre.
For å garantere langsiktig forsyning, har selskapet Den inngår store avtaler med energileverandørerI USA har man for eksempel inngått flerårige kontrakter for å kjøpe strøm fra kjernekraftverk og avanserte prosjekterinkludert små modulære reaktorer som kan bli operative i løpet av det neste tiåret. Denne typen initiativer tar sikte på å sikre en relativt stabil energikilde fri for direkte karbonutslipp.
Metas energistrategi er i tråd med strategien til andre store teknologiselskaper som, stilt overfor økt etterspørsel etter elektrisitet fra AI og datasentre, prøver å for å sikre deres tilgang til pålitelige strømkilderSkiftet mot kjernekraft, som inntil for noen år siden virket usannsynlig i den digitale sektoren, er får fotfeste som et alternativ for å opprettholde veksten innen databehandling uten å utløse en økning i CO₂-utslipp.
Samtidig er Meta klar over kritikken rundt den intensive bruken av ressurser som vann til kjøling av datasentre, samt virkningen på regionale strømnett. Innenfor Meta Compute oppgir selskapet at de vil jobbe med mer effektive design og innen kjøle- og termisk styringsteknologi som reduserer det økologiske fotavtrykket til anleggene deres.
Dette poenget er ikke ubetydelig for Europa, og spesielt for land som Spania, hvor debatten om bærekraft i digital infrastruktur Det er stadig mer aktuelt, og investeringer i datasentre blir nøye gransket med tanke på energi- og vannforbruk.
Hvem har ansvaret hos Meta Compute: det nye organisasjonskartet

For å forstå viktigheten av Meta Compute i selskapet, trenger man bare å se på kvaliteten på ledergruppen som tar over. Initiativet vil bli ledet i fellesskap av Santosh Janardhan og Daniel Gross, to profiler med sterk teknisk og strategisk tyngde, og vil ha politisk og økonomisk veiledning av Dina Powell McCormick.
Janardhan, nåværende Direktør for global infrastruktur hos MetaDen vil fortsette å føre tilsyn med systemenes tekniske arkitektur, silisiumprogrammet (dvs. brikkeutvikling og -valg), programvarestakken knyttet til datasentrene og utviklernes produktivitet. Den vil også beholde ansvaret for bygging og drift av den globale flåten av datasentre og nettverket som forbinder dem.
For deres del, Daniel Gross, tidligere administrerende direktør i Safe Superintelligence, tar roret i en ny gruppe innen Meta Compute med ansvar for langsiktig kapasitetsstrategiBlant funksjonene vil være bransjeanalyse, planlegging av infrastrukturutvidelse, inngåelse av allianser med viktige leverandører, og forretningsmodellering knyttet til all denne investeringen.
Den tredje søylen i lederskap er Dina Powell McCormick, nylig utnevnt til president og visepresident i Meta. Rollen hennes vil fokusere, som Zuckerberg forklarte, på forholdet til myndigheter og suverene enheterI praksis betyr dette forhandle om regelverk, legge til rette for tillatelser for nye anlegg og strukturere offentlig-private finansieringsmekanismer å bygge infrastrukturen.
Denne ledelsesstrukturen plasserer Meta Compute svært nær selskapets øverste beslutningsnivå. Zuckerberg har indikert at måten Meta design, invester og bli partner Å bygge denne infrastrukturen vil bli et avgjørende element i deres strategiske fortrinn over andre aktører i bransjen.
Personlig superintelligens for milliarder av brukere
Utover gigawatt-tallene eller navnene som leder initiativet, er Meta Computes endelige mål å støtte en ny generasjon tjenester basert på det selskapet kaller «personlig superintelligens»Tanken er at brukerne skal ha tilgang til AI-assistenter og -systemer mye mer avanserte enn de nåværende, integrert i Metas plattformer som Facebook, Instagram, WhatsApp og andre produkter.
Denne visjonen er i samsvar med etableringen av Superintelligenslaboratorier, teamet som er dedikert til å utforske AI-modeller med mer sofistikerte kognitive evner, som De nærmer seg det teoretiske konseptet superintelligensSystemer som kan utkonkurrere mennesker i flere resonnerings- og beslutningstakingoppgaver. For å sikre at disse funksjonene ikke forblir begrenset til laboratoriet, må Meta Compute gi det fysiske og logiske grunnlaget som gjør dem brukbare i stor skala.
Zuckerberg har insistert på at selskapets ambisjon er at denne personlige superintelligensen skal være tilgjengelig for «milliarder av mennesker»Dette innebærer ikke bare å trene gigantiske modeller, men også å distribuere dem på en måte som... effektiv og tryggslik at de fungerer i sanntid for brukere over hele verden, med forskjellige enheter og tilkoblingsforhold.
I Europa byr denne tilnærmingen på ytterligere utfordringer, ettersom utplasseringen av avanserte AI-tjenester må overholde et strengere regelverk angående databeskyttelse, algoritmisk åpenhet og sikkerhetDen fremtidige anvendelsen av EUs AI-lov vil tvinge Meta til å tilpasse utformingen og bruken av modellene sine for å overholde EU-forskriftene.
Selskapet er klar over at hvis det ønsker at sin personlige superintelligens skal ha en sterk tilstedeværelse i markeder som Europa, må det kombinere Meta-beregningskraft med streng overholdelse av juridiske forpliktelser og tydelig kommunikasjon om hvordan disse systemene fungerer.
Massive investeringer og et globalt kappløp om AI-infrastruktur
Lanseringen av Meta Compute kommer på et tidspunkt hvor store teknologiselskaper konkurrerer om å sikre dataressurser, energi og talent for sine AI-prosjekter. Etter en lunken mottakelse av noen versjoner av Llama-modellene sine, har Meta intensivert fokuset på infrastruktur som en måte å gjenvinne terreng mot andre aktører i sektoren.
Selskapet har gått så langt som å forplikte seg 72.000 milliarder dollar i kapitalutgifter mellom nå og 2025, med fokus på datasentre og AI-systemer, og har avanserte investeringsprognoser som kan nå 600.000 milliarder dollar i infrastruktur og arbeidsplasser knyttet til kunstig intelligens innen 2028. Meta Compute blir dermed det organisatoriske verktøyet for denne enorme investeringsinnsatsen.
Parallelt har selskapet signert 20-årige strømforsyningskontrakter med kraftproduksjonsanlegg, spesielt i USA, for å sikre at energien som trengs for å drive datasentrene deres vil være tilgjengelig til relativt forutsigbare priser. Dette er en strategi som også tas i bruk av andre teknologigiganter, gitt erkjennelsen av at AI endrer etterspørselsmønstrene for elektrisitet, som begynte å stige igjen etter flere tiår med stabilitet.
For Europa kan denne dynamikken føre til en økning i datasenterprosjekter i land med stabile regulatoriske rammeverk og god energitilgjengelighetsom Spania, Irland eller de nordiske landene. Selv om Meta ennå ikke har spesifisert den fullstendige plasseringen av de nye Meta Compute-fasilitetene, er det europeiske markedet blant prioriteringene på grunn av størrelsen og den sofistikerte telekommunikasjonsinfrastrukturen.
Metas strategi er også under intens gransking fra finansanalytikere. Internasjonale investeringsselskaper overvåker nøye utviklingen av kapitalkostnader, forventet avkastning på investeringer i AI og virkningen på selskapets aksjemarkedsverdi. For øyeblikket ser majoriteten fortsatt oppsidepotensial, men fremhever også risikoer forbundet med slike konsentrerte og langsiktige investeringer.
Meta Compute ser ut til å bli en av de mest ambisiøse bevegelsene i dagens teknologisektor: et prosjekt som kombinerer fysisk infrastruktur, energi, regulering og produktvisjon å forsøke å plassere Meta i sentrum av den neste bølgen av kunstig intelligens. Om den lykkes eller ikke, vil i stor grad avgjøre maktbalansen i bransjen det neste tiåret.
Jeg er en teknologientusiast som har gjort sine "geek"-interesser til et yrke. Jeg har brukt mer enn 10 år av livet mitt på å bruke banebrytende teknologi og fikse med alle slags programmer av ren nysgjerrighet. Nå har jeg spesialisert meg på datateknologi og videospill. Dette er fordi jeg i mer enn 5 år har skrevet for forskjellige nettsteder om teknologi og videospill, og laget artikler som prøver å gi deg den informasjonen du trenger på et språk som er forståelig for alle.
Hvis du har spørsmål, spenner min kunnskap fra alt relatert til Windows-operativsystemet samt Android for mobiltelefoner. Og mitt engasjement er til deg, jeg er alltid villig til å bruke noen minutter og hjelpe deg med å løse eventuelle spørsmål du måtte ha i denne internettverdenen.
