- Gemma 3 és un model LLM multimodal i altament flexible desenvolupat per Google
- Podeu instal·lar-se a Windows 11 mitjançant Ollama, LM Studio o utilitzar-se via Google AI Studio
- Requereix recursos variables segons la mida del model, des de 8 GB fins a 32 GB de RAM
- Incorpora funcions avançades com a entrada d'imatges i fins a 128k tokens de context
Els models de llenguatge de codi obert han evolucionat a passos de gegant, i avui és possible gaudir-los directament des d'un ordinador personal sense dependre de serveis al núvol. Un dels més prometedors del moment és Gemma 3, el nou LLM de Google basat en tecnologia Gemini, que destaca per la seva capacitat per processar text i imatges, així com per la seva enorme finestra de context de fins a 128k tokens a les seves versions avançades. Per obtenir més informació sobre aquest llançament, pots visitar el nostre article sobre la presentació de Gemma 3.
Si utilitzes Windows 11 i estàs buscant instal·lar Gemma 3 per a experimentació o fins i tot producció local, has arribat al lloc adequat. Repassarem en detall totes les formes possibles de tenir-lo funcionant al teu equip, incloent les opcions més recomanades com Ollama, LM Studio, i també una alternativa al núvol amb Google AI Studio. A més, abordarem els requisits tècnics, avantatges de cada mètode i com treure el màxim profit al potencial d'aquesta intel·ligència artificial potent.
Què és Gemma 3 i per què instal·lar-lo?

Gemma 3 és la tercera generació de models LLM llançats per Google sota llicència open-weight. A diferència d'anteriors solucions com Flama o Mistral, ofereix compatibilitat directa amb entrada d'imatges, un context molt més ampli i suport per a més de 140 idiomes. Depenent del que necessitis, pots triar entre diverses versions del model que van des dels 1B fins als 27B paràmetres:
- Gemma 3:1B: Model lleuger ideal per a tasques bàsiques i entorns amb recursos limitats.
- Gemma 3:4B: Equilibri entre rendiment i eficiència per a aplicacions intermèdies.
- Gemma 3:12B: Recomanat per a anàlisis complexes, programació i processament multilingüe.
- Gemma 3:27B: L'opció més potent, pensada per a usos intensius, multimodals i amb gran capacitat contextual.
La possibilitat de córrer un model tan avançat des del teu PC canvia les regles del joc quant a privadesa, velocitat de resposta i dependència de tercers. Ja no cal pagar subscripcions mensuals o renunciar a la teva informació. Només cal una mica de preparació i de ganes d'aprendre. Si vols saber més sobre els beneficis d'aquests models, consulta el nostre article sobre models d'IA open weight.
Opció 1: Instal·lació amb Ollama

Ollama és probablement la forma més senzilla de córrer LLM com Gemma 3 des de Windows 11. La seva interfície basada en terminal permet instal·lar i executar models amb una simple línia d'ordre. A més, és compatible amb macOS, Linux i Windows, cosa que en facilita l'ús en diversos entorns.
Passos per instal·lar Ollama i executar Gemma 3:
- Accedeix a la web oficial: ollama.com.
- Descarrega l'instal·lador per a Windows i executa'l com qualsevol altre programa.
- Obre el Símbol del sistema (CMD) o PowerShell i comprova la instal·lació amb:
ollama --version
Si tot va bé, ja pots descarregar qualsevol dels models disponibles de Gemma 3. Només cal executar alguna d'aquestes ordres segons el model desitjat:
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
Un cop descarregat, pots iniciar el model amb facilitat. Per fer-ho, executa:
ollama init gemma3
Des d'aquest moment, pots començar a interaccionar amb el LLM mitjançant:
ollama query gemma3 "¿Cuál es la capital de Japón?"
Si vols aprofitar les funcions multimodals, també pots fer servir imatges a les teves consultes:
ollama query gemma3 --image "ruta-de-la-imagen.jpg"
Què necessites perquè funcioni bé? Tot i que Ollama no imposa requisits mínims estrictes, els models més grans (com el de 27B) requereixen almenys 32 GB de RAM. Amb 16 GB pots treballar sense problemes amb el model de 7B, i si bé l'ús de GPU no és obligatori, ajuda força en velocitat.
Opció 2: Usar LM Studio

LM Studio és una altra eina gratuïta que permet instal·lar i executar models LLM en local des d'una interfície gràfica. És compatible amb Windows, macOS i Linux, i el seu gran avantatge és que no requereix coneixements tècnics per funcionar.
Instruccions:
- Descarrega LM Studio des de la seva web oficial: lmstudio.ai.
- Instal·la-i executa-ho.
- Feu clic a la icona de la lupa que diu “Discover”.
- Escriu “Gemma 3” al cercador per veure els models disponibles.
Abans d'instal·lar, fixeu-vos si el model és compatible amb el vostre equip. Si apareix l'avís “Likely too large for this machine”, encara el pots instal·lar, però no se'n garanteix el funcionament òptim.
Un cop descarregat un model compatible:
- Clica “Load Model” per carregar-lo.
- O obre un nou xat i tria el model des del desplegable.
El millor de LM Studio és que actua com una mena de ChatGPT local, sense connexió i en el teu idioma. Pots crear múltiples xats i desar les teves converses si ho desitges. A més, si actives l'opció “Local Server”, pots integrar-lo amb les teves aplicacions a Python usant l'API compatible amb OpenAI.
Opció 3: Usar Google AI Studio (en línia)

Si no pots o no vols instal·lar res, pots utilitzar Gemma 3 directament des del núvol amb Google AI Studio. No necessita instal·lació, però sí connexió a Internet i un compte de Google.
Només has d'anar a aistudio.google.com i seleccionar “Gemma 3” a la llista de models. Des d'aquest moment, podeu començar a xatejar amb el model com si fos una versió avançada de Bard o ChatGPT, incloent-hi entrada d'imatges.
Instal·lació al núvol amb NodeShift (opcional)
Per als que busquen més potència o desplegar el model de forma professional, hi ha l'opció d'utilitzar serveis al núvol com ara NodeShift. Amb ells, podeu llogar màquines amb GPU potents i configurar el vostre entorn ideal per córrer Gemma 3 sense limitacions.
Passos bàsics a NodeShift:
- Crear un compte a app.nodeshift.com.
- Iniciar un GPU Node personalitzat (per exemple, amb 2x RTX 4090).
- Triar una imatge preconfigurada amb Ubuntu + Nvidia CUDA o Jupyter Notebook, segons si utilitzaràs Ollama o Transformers.
- Connectar-te per SSH i instal·lar el model des de línia d'ordres.
Aquest tipus d'instal·lació us dóna accés a configuracions professionals, ideals per entrenar models, avaluar rendiment, etc. Tot i que no és indispensable per a un usuari domèstic, és útil per als que vulguin experimentar a fons o muntar aplicacions sobre LLM avançats.
Requisits del sistema i recomanacions tècniques
No tots els models Gemma 3 podran executar-se a qualsevol PC. A continuació et deixem una referència general segons el tipus de model:
- Per a models de 1B a 7B: mínim 8 GB de RAM. Funcionen a gairebé qualsevol PC modern, fins i tot sense GPU.
- Per a models de 13B: es recomanen de 16 GB a 24 GB de RAM.
- Per a models de 27B: es necessiten a l'almenys 32 GB de RAM i, preferentment, una GPU dedicada.
Disposar de més RAM agilitza el funcionament i evita errors per manca de memòria. Encara que Ollama i LM Studio intenten aprofitar els recursos de forma eficient, dependrà molt del teu maquinari. A més, la velocitat de resposta millora significativament si es fa servir GPU en lloc de CPU.
Instal·lar Gemma 3 a Windows 11 és més accessible del que sembla. Tant se val si decideixes utilitzar Ollama per la seva simplicitat, LM Studio per la seva interfície gràfica o Google AI Studio per anar sobre segur al núvol. L?important és que cada mètode s?adapta a diferents nivells d?experiència i capacitats tècniques. Ara que coneixes totes les alternatives i el que necessites per posar-ho en marxa, pots començar avui mateix a experimentar amb aquesta impressionant intel·ligència artificial local.
Sóc un apassionat de la tecnologia que ha convertit els seus interessos frikis en professió. Porto més de 10 anys de la meva vida utilitzant tecnologia d'avantguarda i traslladant tota mena de programes per pura curiositat. Ara he especialitzat en tecnologia d'ordinador i videojocs. Això és perquè des de fa més de 5 anys que treballo redactant per a diverses webs en matèria de tecnologia i videojocs, creant articles que busquen donar-te la informació que necessites amb un llenguatge comprensible per tothom.
Si tens qualsevol pregunta, els meus coneixements van des de tot allò relacionat amb el sistema operatiu Windows així com Android per a mòbils. I és que el meu compromís és amb tu, sempre estic disposat a dedicar-te uns minuts i ajudar-te a resoldre qualsevol dubte que tinguis a aquest món d'internet.