Kiel instali Gemma 3 LLM en Vindozo 11 paŝon post paŝo

Lasta ĝisdatigo: 02/04/2025

  • Gemma 3 estas tre fleksebla, multimodala LLM-modelo evoluigita de Google
  • Ĝi povas esti instalita en Windows 11 uzante Ollama, LM Studio aŭ uzata per Google AI Studio
  • Postulas variajn rimedojn depende de la grandeco de la modelo, de 8 GB ĝis 32 GB de RAM
  • Enkorpigas altnivelajn funkciojn kiel bilda enigo kaj ĝis 128k kuntekstaj ĵetonoj
Kiel instali Gemma 3 LLM en Vindozo 11/8

Malfermfontaj lingvomodeloj evoluis per saltoj kaj saltegoj, kaj Hodiaŭ eblas ĝui ilin rekte de persona komputilo sen dependi de nubaj servoj.. Unu el la plej promesplenaj nuntempe estas Gemma 3, la nova LLM de Google bazita sur Gemini-teknologio, kiu elstaras pro sia kapablo prilabori tekstojn kaj bildojn, kaj ankaŭ pro sia enorma kunteksta fenestro de ĝis 128k ĵetonoj en siaj progresintaj versioj. Por pliaj informoj pri ĉi tiu eldono, vi povas viziti nian artikolon pri la prezento de Gemma 3.

Se vi uzas Windows 11 kaj serĉas instali Gemma 3 por eksperimentado aŭ eĉ loka produktado, vi venis al la ĝusta loko. Ni detale trarigardu ĉiujn eblajn manierojn ekfunkciigi ĝin en via komputilo, inkluzive de la plej rekomenditaj opcioj kiel Ollama, LM Studio, kaj ankaŭ nub-bazita alternativo kun Google AI Studio. Krome, ni traktos la teknikajn postulojn, avantaĝojn de ĉiu metodo kaj Kiel ekspluati la potencialon de ĉi tiu potenca artefarita inteligenteco.

Kio estas Gemma 3 kaj kial instali ĝin?

Google lanĉas Gemma 3-4

Gemma 3 estas la tria generacio de LLM-modeloj publikigitaj de Google sub malfermfonta permesilo.. Male al antaŭaj solvoj kiel Llama aŭ Mistral, ĝi ofertas rektan subtenon por bilda enigo, multe pli larĝan kuntekston kaj subtenon por pli ol 140 lingvoj. Depende de viaj bezonoj, vi povas elekti el pluraj versioj de la modelo, kiuj iras de 1B ĝis 27B parametroj:

  • Gemo 3:1B: Malpeza modelo ideala por bazaj taskoj kaj medio-limigitaj rimedoj.
  • Gemo 3:4B: Ekvilibrado de rendimento kaj efikeco por mezaj aplikoj.
  • Gemo 3:12B: Rekomendita por kompleksa analizo, programado kaj plurlingva prilaborado.
  • Gemo 3:27B: La plej potenca opcio, dizajnita por intensaj, multmodaj uzoj kun granda kunteksta kapablo.
Ekskluziva enhavo - Klaku Ĉi tie  Kiel enspezi en Sweatcoin?

La ebleco funkciigi tian altnivelan modelon de via komputilo Ĝi ŝanĝas la regulojn de la ludo laŭ privateco, respondrapideco kaj dependeco de triaj partioj. Vi ne plu bezonas pagi monatajn abonojn aŭ rezigni viajn datumojn. Necesas nur iom da preparo kaj deziro lerni. Se vi volas scii pli pri la avantaĝoj de ĉi tiuj modeloj, rigardu nian artikolon pri malferma pezo AI-modeloj.

Opcio 1: Instalado kun Ollama

Elŝutu Ollama

Ollama estas verŝajne la plej facila maniero funkciigi LLM kiel Gemma 3 de Windows 11. Ĝia terminal-bazita interfaco permesas vin instali kaj ruli modelojn per simpla komandlinio. Krome, ĝi kongruas kun macOS, Linukso kaj Vindozo, faciligante ĝin uzi en diversaj medioj.

Paŝoj por instali Ollama kaj ruli Gemma 3:

  1. Aliru la oficialan retejon: ollama.com.
  2. Elŝutu la instalilon por Vindozo kaj rulu ĝin kiel ajna alia programo.
  3. Malfermu Komandprompton (CMD) aŭ PowerShell kaj kontrolu la instaladon per:
ollama --version

Se ĉio iras bone, vi nun povas elŝuti iun ajn el la disponeblaj ŝablonoj de Gemma 3. Simple rulu unu el ĉi tiuj komandoj depende de la ŝablono, kiun vi volas:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

Post elŝuto, vi povas facile komenci la modelon.. Por fari tion, rulu:

ollama init gemma3

Ekde tiu momento, vi povas komenci interagi kun la LLM per:

ollama query gemma3 "¿Cuál es la capital de Japón?"

Se vi volas utiligi multmodalajn funkciojn, vi ankaŭ povas uzi bildojn en viaj demandoj:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

Kion vi bezonas por ke ĝi bone funkciu? Kvankam Ollama ne trudas striktajn minimumajn postulojn, pli grandaj modeloj (kiel la 27B) postulas almenaŭ 32GB da RAM. Kun 16GB vi povas labori sen problemoj kun la modelo 7B, kaj kvankam la uzo de GPU ne estas deviga, ĝi multe helpas en rapido.

Ekskluziva enhavo - Klaku Ĉi tie  Kiel fari voĉan dikton per 1C Klavaro?

Opcio 2: Uzu LM Studio

LM Studio

LM Studio estas alia senpaga ilo, kiu permesas vin instali kaj ruli LLM-modelojn loke de grafika interfaco.. Ĝi estas kongrua kun Vindozo, macOS kaj Linukso, kaj ĝia granda avantaĝo estas, ke ĝi ne postulas teknikan scion por funkcii.

Instrukcioj:

  1. Elŝutu LM Studio de ĝia oficiala retejo: lmstudio.ai.
  2. Instalu kaj funkciigu ĝin.
  3. Alklaku la lupeon, kiu diras "Malkovru".
  4. Tajpu "Gemma 3" en la serĉilon por vidi la disponeblajn modelojn.

Antaŭ ol instali, kontrolu ĉu la modelo kongruas kun via ekipaĵo. Se vi vidas la averton "Verŝajne tro granda por ĉi tiu maŝino", vi ankoraŭ povas instali ĝin, sed optimuma rendimento ne estas garantiita.

Post kiam kongrua modelo estas elŝutita:

  • Alklaku "Ŝargi modelon" por ŝargi ĝin.
  • Aŭ malfermu novan babilejon kaj elektu la modelon el la falmenuo.

La plej bona afero pri LM Studio estas, ke ĝi funkcias kiel loka ChatGPT, eksterrete kaj en via lingvo. Vi povas krei plurajn babilojn kaj konservi viajn konversaciojn, se vi volas. Aldone, se vi ebligas la opcion "Loka Servilo", vi povas integri ĝin kun viaj Python-aplikoj uzante la OpenAI-kongruan API.

Opcio 3: Uzu Google AI Studio (rete)

Google AI Studio

Se vi ne povas aŭ volas instali ion ajn, vi povas uzi Gemma 3 rekte de la nubo kun Google AI Studio. Ne necesas instalo, sed necesas interreta konekto kaj Google-konto.

Vi nur devas iri al aistudio.google.com kaj elektu "Gemma 3" el la listo de modeloj. De tiu momento vi povas komenci babili kun la modelo kvazaŭ ĝi estus altnivela versio de Bard aŭ ChatGPT, inkluzive de bilda enigo.

Nuba instalado kun NodeShift (laŭvola)

Por tiuj, kiuj serĉas pli da potenco aŭ disfaldi la modelon profesie, ekzistas la eblo uzi nubajn servojn kiel NodeShift. Kun ili, vi povas lui maŝinojn kun potencaj GPU-oj kaj agordi vian idealan medion por ruli Gemma 3 sen limigoj.

Ekskluziva enhavo - Klaku Ĉi tie  Kiel estas prizorgataj statistikoj per la aplikaĵo Nike Run Club?

Bazaj paŝoj en NodeShift:

  1. Kreu konton ĉe app.nodeshift.com.
  2. Komencu kutiman GPU-Nodon (ekz. kun 2x RTX 4090).
  3. Elektu antaŭkonfiguritan bildon kun Ubuntu + Nvidia CUDA aŭ Jupyter Notebook, depende de ĉu vi uzos Ollama aŭ Transformers.
  4. Konektu per SSH kaj instalu la modelon de la komandlinio.

Ĉi tiu tipo de instalado donas al vi aliron al profesiaj agordoj, ideala por trejnado de modeloj, taksado de rendimento ktp. Kvankam ne esenca por hejmaj uzantoj, ĝi estas utila por tiuj, kiuj volas profunde eksperimenti aŭ konstrui aplikojn sur altnivelaj LLM-oj.

Sistemaj postuloj kaj teknikaj rekomendoj

Ne ĉiuj Gemma 3-modeloj funkcios en iu ajn komputilo. Malsupre ni lasas al vi ĝeneralan referencon laŭ la tipo de modelo:

  • para modeloj 1B ĝis 7B: minimumo 8 GB de RAM. Ili funkcias en preskaŭ ajna moderna komputilo, eĉ sen GPU.
  • para 13B modeloj: estas rekomenditaj 16GB ĝis 24GB RAM.
  • para 27B modeloj: estas bezonataj almenaŭ 32 GB de RAM kaj prefere dediĉita GPU.

Havi pli da RAM plirapidigas operacion kaj malhelpas erarojn pro manko de memoro. Dum Ollama kaj LM Studio provas uzi rimedojn efike, ĝi multe dependos de via aparataro. Krome, la respondrapideco signife pliboniĝas se GPU estas uzata anstataŭ CPU.

Instali Gemma 3 sur Windows 11 estas pli facila ol ŝajnas.. Ne gravas ĉu vi decidas uzi Ollama pro ĝia simpleco, LM Studio por ĝia grafika interfaco, aŭ Google AI Studio por ludi ĝin sekure en la nubo. La grava afero estas, ke ĉiu metodo adaptiĝas al malsamaj niveloj de sperto kaj teknikaj kapabloj. Nun kiam vi scias ĉiujn eblojn kaj kion vi bezonas por komenci, vi povas komenci eksperimenti kun ĉi tiu impresa loka artefarita inteligenteco hodiaŭ.