Kako instalirati Gemma 3 LLM na Windows 11 korak po korak

Posljednje ažuriranje: 02/04/2025

  • Gemma 3 je vrlo fleksibilan, multimodalni LLM model koji je razvio Google
  • Može se instalirati na Windows 11 koristeći Ollama, LM Studio ili koristiti preko Google AI Studio
  • Zahtijeva promjenjive resurse ovisno o veličini modela, od 8 GB do 32 GB RAM-a
  • Uključuje napredne funkcije kao što su unos slike i do 128k kontekstnih tokena
Kako instalirati Gemma 3 LLM na Windows 11/8

Modeli jezika otvorenog koda evoluirali su skokovima i granicama, i Danas je u njima moguće uživati ​​direktno sa osobnog računara bez ovisnosti o uslugama u oblaku.. Jedan od trenutno najperspektivnijih je Gemma 3, Googleov novi LLM baziran na Gemini tehnologiji, koji se ističe po svojoj sposobnosti obrade teksta i slika, kao i po ogromnom kontekstu konteksta od do 128 tokena u svojim naprednim verzijama. Za više informacija o ovom izdanju, možete posjetiti naš članak na prezentacija Gemme 3.

Ako koristite Windows 11 i želite instalirati Gemma 3 za eksperimentiranje ili čak lokalnu proizvodnju, došli ste na pravo mjesto. Hajde da detaljno pređemo na sve moguće načine da ga pokrenete i pokrenete na vašem računaru, uključujući najpreporučljivije opcije kao što su Ollama, LM Studio, kao i alternativu zasnovanu na oblaku sa Google AI Studio. Osim toga, bavit ćemo se tehničkim zahtjevima, prednostima svake metode i Kako maksimalno iskoristiti potencijal ove moćne umjetne inteligencije.

Šta je Gemma 3 i zašto ga instalirati?

Google lansira Gemmu 3-4

Gemma 3 je treća generacija LLM modela koje je Google objavio pod licencom otvorenog koda.. Za razliku od prethodnih rješenja kao što su Llama ili Mistral, nudi direktnu podršku za unos slika, mnogo širi kontekst i podršku za preko 140 jezika. Ovisno o vašim potrebama, možete birati između nekoliko verzija modela u rasponu od 1B do 27B parametara:

  • Gema 3:1B: Lagani model idealan za osnovne zadatke i okruženja sa ograničenim resursima.
  • Gema 3:4B: Balansiranje performansi i efikasnosti za srednje aplikacije.
  • Gema 3:12B: Preporučuje se za kompleksnu analizu, programiranje i višejezičnu obradu.
  • Gema 3:27B: Najmoćnija opcija, dizajnirana za intenzivnu, multimodalnu upotrebu sa velikim kontekstualnim kapacitetom.
Ekskluzivni sadržaj - kliknite ovdje  Kako unovčiti Sweatcoin?

Mogućnost pokretanja ovako naprednog modela sa vašeg računara To mijenja pravila igre u smislu privatnosti, brzine odgovora i ovisnosti o trećim stranama. Više ne morate plaćati mjesečne pretplate ili se odricati svojih podataka. Sve što je potrebno je mala priprema i želja za učenjem. Ako želite saznati više o prednostima ovih modela, pogledajte naš članak o AI modeli otvorene težine.

Opcija 1: Instalacija sa Ollama

Ollama preuzimanje

Ollama je vjerovatno najlakši način da pokrenete LLM kao što je Gemma 3 iz Windows 11. Njegov interfejs baziran na terminalu omogućava vam da instalirate i pokrenete modele pomoću jednostavne komandne linije. Osim toga, kompatibilan je s macOS-om, Linuxom i Windows-om, što ga čini lakim za korištenje u raznim okruženjima.

Koraci za instaliranje Ollame i pokretanje Gemme 3:

  1. Pristupite službenoj web stranici: ollama.com.
  2. Preuzmite instalacioni program za Windows i pokrenite ga kao i svaki drugi program.
  3. Otvorite komandnu liniju (CMD) ili PowerShell i provjerite instalaciju pomoću:
ollama --version

Ako sve prođe kako treba, sada možete preuzeti bilo koji od dostupnih Gemma 3 predložaka. Jednostavno pokrenite jednu od ovih naredbi ovisno o predlošku koji želite:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

Nakon preuzimanja, možete lako pokrenuti model.. Da biste to učinili, pokrenite:

ollama init gemma3

Od tog trenutka, možete započeti interakciju sa LLM-om tako što ćete:

ollama query gemma3 "¿Cuál es la capital de Japón?"

Ako želite iskoristiti prednosti multimodalnih funkcija, također možete koristiti slike u vašim upitima:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

Šta vam je potrebno da bi dobro funkcionirao? Iako Ollama ne nameće stroge minimalne zahtjeve, veći modeli (poput 27B) zahtijevaju najmanje 32 GB RAM-a. Sa 16GB možete raditi bez problema sa 7B modelom, a iako upotreba GPU-a nije obavezna, dosta pomaže u brzini.

Ekskluzivni sadržaj - kliknite ovdje  Kako napraviti glasovni diktat sa 1C tastaturom?

Opcija 2: Koristite LM Studio

LM Studio

LM Studio je još jedan besplatni alat koji vam omogućava da instalirate i pokrenete LLM modele lokalno iz grafičkog sučelja.. Kompatibilan je sa Windows, macOS i Linux, a njegova velika prednost je što ne zahtijeva tehničko znanje za rad.

Instrucciones: \ t

  1. Preuzmite LM Studio sa njegove službene web stranice: lmstudio.ai.
  2. Instalirajte ga i pokrenite.
  3. Kliknite na ikonu povećala na kojoj piše "Otkrij".
  4. Upišite “Gemma 3” u tražilicu da vidite dostupne modele.

Prije instaliranja provjerite da li je model kompatibilan s vašom opremom. Ako vidite upozorenje „Vjerovatno preveliko za ovu mašinu“, i dalje ga možete instalirati, ali optimalne performanse nisu zagarantovane.

Nakon preuzimanja kompatibilnog modela:

  • Pritisnite “Učitaj model” da ga učitate.
  • Ili otvorite novi chat i odaberite model iz padajućeg menija.

Najbolja stvar kod LM Studija je to što djeluje kao neka vrsta lokalnog ChatGPT-a, van mreže i na vašem jeziku. Možete kreirati više razgovora i sačuvati svoje razgovore ako želite. Osim toga, ako omogućite opciju “Local Server”, možete je integrirati sa svojim Python aplikacijama koristeći OpenAI-kompatibilni API.

Opcija 3: Koristite Google AI Studio (online)

Google AI Studio

Ako ne možete ili ne želite ništa da instalirate, Gemma 3 možete koristiti direktno iz oblaka uz Google AI Studio. Nije potrebna instalacija, ali su potrebna internetska veza i Google račun.

Samo moraš da odeš aistudio.google.com i odaberite “Gemma 3” sa liste modela. Od tog trenutka možete započeti razgovor s modelom kao da je to napredna verzija Barda ili ChatGPT-a, uključujući unos slike.

Instalacija u oblaku sa NodeShift (opciono)

Za one koji traže više snage ili profesionalno implementaciju modela, postoji mogućnost korištenja cloud servisa kao što je NodeShift. Uz njih, možete iznajmiti mašine sa moćnim GPU-ima i konfigurisati svoje idealno okruženje za pokretanje Gemme 3 bez ograničenja.

Ekskluzivni sadržaj - kliknite ovdje  Kako se prati statistika trčanja pomoću aplikacije Nike Run Club?

Osnovni koraci u NodeShift:

  1. Otvorite račun na app.nodeshift.com.
  2. Pokrenite prilagođeni GPU čvor (npr. sa 2x RTX 4090).
  3. Odaberite unaprijed konfiguriranu sliku sa Ubuntu + Nvidia CUDA ili Jupyter notebookom, ovisno o tome da li ćete koristiti Ollamu ili Transformers.
  4. Povežite se preko SSH i instalirajte model iz komandne linije.

Ova vrsta instalacije vam daje pristup profesionalnim konfiguracijama, idealno za modele za obuku, procjenu performansi, itd. Iako nije neophodno za kućne korisnike, korisno je za one koji žele dublje eksperimentirati ili graditi aplikacije na naprednim LLM-ovima.

Sistemski zahtjevi i tehničke preporuke

Neće svi Gemma 3 modeli raditi ni na jednom računaru. U nastavku vam ostavljamo opću referencu prema tipu modela:

  • para modeli 1B do 7B: minimum 8 GB RAM-a. Rade na skoro svakom modernom računaru, čak i bez GPU-a.
  • para 13B modeli: preporučuju se 16GB do 24GB RAM-a.
  • para 27B modeli: potrebni su najmanje 32 GB RAM-a i po mogućnosti namenski GPU.

Više RAM-a ubrzava rad i sprečava greške zbog nedostatka memorije. Dok Ollama i LM Studio pokušavaju da efikasno koriste resurse, to će mnogo zavisiti od vašeg hardvera. Osim toga, brzina odziva se značajno poboljšava ako se umjesto CPU-a koristi GPU.

Instaliranje Gemme 3 na Windows 11 je lakše nego što se čini.. Nije važno da li odlučite da koristite Ollamu zbog njene jednostavnosti, LM Studio zbog njegovog grafičkog interfejsa ili Google AI Studio da igrate na sigurno u oblaku. Važno je da se svaka metoda prilagođava različitim nivoima iskustva i tehničkih mogućnosti. Sada kada znate sve opcije i šta vam je potrebno za početak, možete početi eksperimentirati s ovom impresivnom lokalnom umjetnom inteligencijom već danas.