Hur man installerar Gemma 3 LLM på Windows 11 steg för steg

Senaste uppdateringen: 02/04/2025
Författare: Alberto navarro

  • Gemma 3 är en mycket flexibel, multimodal LLM-modell utvecklad av Google
  • Det kan installeras på Windows 11 med Ollama, LM Studio eller användas via Google AI Studio
  • Kräver varierande resurser beroende på storleken på modellen, från 8 GB till 32 GB RAM
  • Innehåller avancerade funktioner som bildinmatning och upp till 128k kontexttokens
Hur man installerar Gemma 3 LLM på Windows 11/8

Språkmodeller med öppen källkod har utvecklats med stormsteg, och Idag är det möjligt att njuta av dem direkt från en persondator utan att vara beroende av molntjänster.. En av de mest lovande för närvarande är Gemma 3, Googles nya LLM baserad på Gemini-teknik, som utmärker sig för sin förmåga att bearbeta text och bilder, samt för sitt enorma sammanhangsfönster på upp till 128 XNUMX tokens i sina avancerade versioner. För mer information om den här utgåvan kan du besöka vår artikel om presentationen av Gemma 3.

Om du använder Windows 11 och vill installera Gemma 3 för experiment eller till och med lokal produktion, du har kommit till rätt ställe. Låt oss gå igenom i detalj alla möjliga sätt att få igång det på din dator, inklusive de mest rekommenderade alternativen som Ollama, LM Studio och även ett molnbaserat alternativ med Google AI Studio. Dessutom kommer vi att ta upp de tekniska kraven, fördelarna med varje metod och Hur man får ut det mesta av potentialen i denna kraftfulla artificiella intelligens.

Vad är Gemma 3 och varför installera det?

Google lanserar Gemma 3-4

Gemma 3 är den tredje generationen LLM-modeller som släpps av Google under en öppen källkodslicens.. Till skillnad från tidigare lösningar som Llama eller Mistral erbjuder den direkt stöd för bildinmatning, ett mycket bredare sammanhang och stöd för över 140 språk. Beroende på dina behov kan du välja mellan flera versioner av modellen från 1B till 27B parametrar:

  • Gemma 3:1B: Lättviktsmodell idealisk för grundläggande uppgifter och resursbegränsade miljöer.
  • Gemma 3:4B: Balanserar prestanda och effektivitet för mellanliggande applikationer.
  • Gemma 3:12B: Rekommenderas för komplex analys, programmering och flerspråkig bearbetning.
  • Gemma 3:27B: Det mest kraftfulla alternativet, designat för intensiv, multimodal användning med stor kontextuell kapacitet.
Exklusivt innehåll - Klicka här  Hur exporterar du din budgetlista med direktfaktura?

Möjligheten att köra en så avancerad modell från din PC Det ändrar spelets regler när det gäller integritet, svarshastighet och beroende av tredje part. Du behöver inte längre betala månadsabonnemang eller ge upp din data. Allt som krävs är lite förberedelser och en vilja att lära. Om du vill veta mer om fördelarna med dessa modeller, kolla in vår artikel om AI-modeller med öppen vikt.

Alternativ 1: Installation med Ollama

Ollama ladda ner

Ollama är förmodligen det enklaste sättet att köra LLM som Gemma 3 från Windows 11. Dess terminalbaserade gränssnitt låter dig installera och köra modeller med en enkel kommandorad. Dessutom är den kompatibel med macOS, Linux och Windows, vilket gör den enkel att använda i en mängd olika miljöer.

Steg för att installera Ollama och köra Gemma 3:

  1. Gå till den officiella webbplatsen: ollama.com.
  2. Ladda ner installationsprogrammet för Windows och kör det som vilket annat program som helst.
  3. Öppna kommandotolken (CMD) eller PowerShell och verifiera installationen med:
ollama --version

Om allt går bra kan du nu ladda ner någon av de tillgängliga Gemma 3-mallarna. Kör helt enkelt ett av dessa kommandon beroende på vilken mall du vill ha:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

När du har laddat ner kan du enkelt starta modellen.. För att göra detta, kör:

ollama init gemma3

Från det ögonblicket kan du börja interagera med LLM genom att:

ollama query gemma3 "¿Cuál es la capital de Japón?"

Om du vill dra nytta av multimodala funktioner, kan du också använda bilder i dina frågor:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

Vad behöver du för att det ska fungera bra? Även om Ollama inte ställer några strikta minimikrav, kräver större modeller (som 27B) minst 32 GB RAM. Med 16GB kan du arbeta utan problem med 7B-modellen, och även om det inte är obligatoriskt att använda en GPU så hjälper det mycket på hastigheten.

Exklusivt innehåll - Klicka här  Hur prenumererar jag på Brainly App e-postlista?

Alternativ 2: Använd LM Studio

LM Studio

LM Studio är ett annat gratis verktyg som låter dig installera och köra LLM-modeller lokalt från ett grafiskt gränssnitt.. Den är kompatibel med Windows, macOS och Linux, och dess stora fördel är att den inte kräver teknisk kunskap för att fungera.

instruktioner:

  1. Ladda ner LM Studio från dess officiella hemsida: lmstudio.ai.
  2. Installera och kör den.
  3. Klicka på förstoringsglasikonen som säger "Upptäck".
  4. Skriv "Gemma 3" i sökmotorn för att se tillgängliga modeller.

Innan du installerar, kontrollera om modellen är kompatibel med din utrustning. Om du ser varningen "Sannolikt för stor för den här maskinen" kan du fortfarande installera den, men optimal prestanda kan inte garanteras.

När en kompatibel modell har laddats ner:

  • Tryck på "Ladda modell" för att ladda den.
  • Eller öppna en ny chatt och välj modell från rullgardinsmenyn.

Det bästa med LM Studio är att det fungerar som en slags lokal ChatGPT, offline och på ditt språk. Du kan skapa flera chattar och spara dina konversationer om du vill. Om du aktiverar alternativet "Lokal server" kan du dessutom integrera det med dina Python-applikationer med det OpenAI-kompatibla API:et.

Alternativ 3: Använd Google AI Studio (online)

Google AI Studio

Om du inte kan eller vill installera något kan du använda Gemma 3 direkt från molnet med Google AI Studio. Ingen installation krävs, men en internetanslutning och ett Google-konto krävs.

Du måste bara gå till aistudio.google.com och välj "Gemma 3" från listan över modeller. Från det ögonblicket kan du börja chatta med modellen som om det vore en avancerad version av Bard eller ChatGPT, inklusive bildinmatning.

Molninstallation med NodeShift (valfritt)

För dig som letar efter mer kraft eller att använda modellen professionellt, det finns möjlighet att använda molntjänster som NodeShift. Med dem kan du hyra maskiner med kraftfulla GPU:er och konfigurera din idealiska miljö för att köra Gemma 3 utan begränsningar.

Exklusivt innehåll - Klicka här  Hur begränsar man speltiden i Pou-appen?

Grundläggande steg i NodeShift:

  1. Skapa ett konto på app.nodeshift.com.
  2. Starta en anpassad GPU-nod (t.ex. med 2x RTX 4090).
  3. Välj en förkonfigurerad bild med Ubuntu + Nvidia CUDA eller Jupyter Notebook, beroende på om du ska använda Ollama eller Transformers.
  4. Anslut via SSH och installera modellen från kommandoraden.

Denna typ av installation ger dig tillgång till professionella konfigurationer, idealisk för att träna modeller, utvärdera prestanda, etc. Även om det inte är nödvändigt för hemanvändare, är det användbart för dem som vill experimentera på djupet eller bygga applikationer på avancerade LLM.

Systemkrav och tekniska rekommendationer

Inte alla Gemma 3-modeller kommer att köras på någon PC. Nedan lämnar vi en allmän referens beroende på typ av modell:

  • till modellerna 1B till 7B: minimum 8 GB RAM. De fungerar på nästan alla moderna datorer, även utan en GPU.
  • till 13B-modeller: rekommenderas 16 GB till 24 GB RAM.
  • till 27B-modeller: behövs minst 32 GB RAM och helst en dedikerad GPU.

Att ha mer RAM-minne påskyndar driften och förhindrar fel på grund av minnesbrist. Även om Ollama och LM Studio försöker använda resurser effektivt, kommer det att bero mycket på din hårdvara. Dessutom förbättras svarshastigheten avsevärt om GPU används istället för CPU.

Att installera Gemma 3 på Windows 11 är enklare än det verkar.. Det spelar ingen roll om du väljer att använda Ollama för sin enkelhet, LM Studio för dess grafiska gränssnitt eller Google AI Studio för att spela det säkert i molnet. Det viktiga är att varje metod anpassar sig till olika erfarenhetsnivåer och tekniska förmågor. Nu när du vet alla alternativ och vad du behöver för att komma igång kan du börja experimentera med denna imponerande lokala artificiella intelligens idag.