Cómo instalar Gemma 3 LLM en Windows 11 paso a paso

Última actualización: 02/04/2025

  • Gemma 3 es un modelo LLM multimodal y altamente flexible desarrollado por Google
  • Puede instalarse en Windows 11 mediante Ollama, LM Studio o utilizarse vía Google AI Studio
  • Requiere recursos variables según el tamaño del modelo, desde 8 GB hasta 32 GB de RAM
  • Incorpora funciones avanzadas como entrada de imágenes y hasta 128k tokens de contexto
cómo instalar Gemma 3 LLM en Windows 11-8

Los modelos de lenguaje de código abierto han evolucionado a pasos agigantados, y hoy es posible disfrutarlos directamente desde un ordenador personal sin depender de servicios en la nube. Uno de los más prometedores del momento es Gemma 3, el nuevo LLM de Google basado en tecnología Gemini, que destaca por su capacidad para procesar texto e imágenes, así como por su enorme ventana de contexto de hasta 128k tokens en sus versiones avanzadas. Para obtener más información sobre este lanzamiento, puedes visitar nuestro artículo sobre la presentación de Gemma 3.

Si usas Windows 11 y estás buscando instalar Gemma 3 para experimentación o incluso producción local, has llegado al lugar adecuado. Vamos a repasar en detalle todas las formas posibles de tenerlo funcionando en tu equipo, incluyendo las opciones más recomendadas como Ollama, LM Studio, y también una alternativa en la nube con Google AI Studio. Además, abordaremos los requisitos técnicos, ventajas de cada método y cómo sacar el máximo partido al potencial de esta potente inteligencia artificial.

¿Qué es Gemma 3 y por qué instalarlo?

Google lanza Gemma 3-4

Gemma 3 es la tercera generación de modelos LLM lanzados por Google bajo licencia open-weight. A diferencia de anteriores soluciones como Llama o Mistral, ofrece compatibilidad directa con entrada de imágenes, un contexto mucho más amplio y soporte para más de 140 idiomas. Dependiendo de lo que necesites, puedes elegir entre varias versiones del modelo que van desde los 1B hasta los 27B parámetros:

  • Gemma 3:1B: Modelo ligero ideal para tareas básicas y entornos con recursos limitados.
  • Gemma 3:4B: Equilibrio entre rendimiento y eficiencia para aplicaciones intermedias.
  • Gemma 3:12B: Recomendado para análisis complejos, programación y procesamiento multilingüe.
  • Gemma 3:27B: La opción más potente, pensada para usos intensivos, multimodales y con gran capacidad contextual.
Contenido exclusivo - Clic Aquí  ¿Cómo graduar distancias en Autocad app?

La posibilidad de correr un modelo tan avanzado desde tu PC cambia las reglas del juego en cuanto a privacidad, velocidad de respuesta y dependencia de terceros. Ya no necesitas pagar suscripciones mensuales o renunciar a tu información. Solo hace falta un poco de preparación y ganas de aprender. Si quieres saber más sobre los beneficios de estos modelos, consulta nuestro artículo sobre modelos de IA open weight.

Opción 1: Instalación con Ollama

Ollama download

Ollama es probablemente la forma más sencilla de correr LLM como Gemma 3 desde Windows 11. Su interfaz basada en terminal permite instalar y ejecutar modelos con una simple línea de comando. Además, es compatible con macOS, Linux y Windows, lo que facilita su uso en diversos entornos.

Pasos para instalar Ollama y ejecutar Gemma 3:

  1. Accede a la web oficial: ollama.com.
  2. Descarga el instalador para Windows y ejecútalo como cualquier otro programa.
  3. Abre el Símbolo del sistema (CMD) o PowerShell y comprueba la instalación con:
ollama --version

Si todo va bien, ya puedes descargar cualquiera de los modelos disponibles de Gemma 3. Basta con ejecutar alguno de estos comandos según el modelo deseado:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

Una vez descargado, puedes iniciar el modelo con facilidad. Para ello, ejecuta:

ollama init gemma3

Desde ese momento, puedes empezar a interaccionar con el LLM mediante:

ollama query gemma3 "¿Cuál es la capital de Japón?"

Si deseas aprovechar las funciones multimodales, también puedes usar imágenes en tus consultas:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

¿Qué necesitas para que funcione bien? Aunque Ollama no impone requisitos mínimos estrictos, los modelos más grandes (como el de 27B) requieren al menos 32 GB de RAM. Con 16 GB puedes trabajar sin problemas con el modelo de 7B, y si bien el uso de GPU no es obligatorio, ayuda bastante en velocidad.

Contenido exclusivo - Clic Aquí  ¿Cómo utilizar fechas de vencimiento + más tarde en Asana?

Opción 2: Usar LM Studio

LM Studio

LM Studio es otra herramienta gratuita que permite instalar y ejecutar modelos LLM en local desde una interfaz gráfica. Es compatible con Windows, macOS y Linux, y su gran ventaja es que no requiere conocimientos técnicos para funcionar.

Instrucciones:

  1. Descarga LM Studio desde su web oficial: lmstudio.ai.
  2. Instálalo y ejecútalo.
  3. Haz clic en el icono de la lupa que dice “Discover”.
  4. Escribe “Gemma 3” en el buscador para ver los modelos disponibles.

Antes de instalar, fíjate si el modelo es compatible con tu equipo. Si aparece el aviso “Likely too large for this machine”, aún puedes instalarlo, pero no se garantiza su funcionamiento óptimo.

Una vez descargado un modelo compatible:

  • Pulsa “Load Model” para cargarlo.
  • O abre un nuevo chat y elige el modelo desde el desplegable.

Lo mejor de LM Studio es que actúa como una especie de ChatGPT local, sin conexión y en tu idioma. Puedes crear múltiples chats y guardar tus conversaciones si lo deseas. Además, si activas la opción “Local Server”, puedes integrarlo con tus aplicaciones en Python usando la API compatible con OpenAI.

Opción 3: Usar Google AI Studio (en línea)

Google AI Studio

Si no puedes o no quieres instalar nada, puedes utilizar Gemma 3 directamente desde la nube con Google AI Studio. No necesita instalación, pero sí conexión a Internet y una cuenta de Google.

Solo tienes que ir a aistudio.google.com y seleccionar “Gemma 3” en la lista de modelos. Desde ese momento, puedes empezar a chatear con el modelo como si fuera una versión avanzada de Bard o ChatGPT, incluyendo entrada de imágenes.

Instalación en la nube con NodeShift (opcional)

Para quienes buscan mayor potencia o desplegar el modelo de forma profesional, existe la opción de usar servicios en la nube como NodeShift. Con ellos, puedes alquilar máquinas con GPU potentes y configurar tu entorno ideal para correr Gemma 3 sin limitaciones.

Contenido exclusivo - Clic Aquí  Cómo cambiar el brillo de la linterna en tu móvil

Pasos básicos en NodeShift:

  1. Crear una cuenta en app.nodeshift.com.
  2. Iniciar un GPU Node personalizado (por ejemplo, con 2x RTX 4090).
  3. Elegir una imagen preconfigurada con Ubuntu + Nvidia CUDA o Jupyter Notebook, según si usarás Ollama o Transformers.
  4. Conectarte por SSH e instalar el modelo desde línea de comandos.

Este tipo de instalación te da acceso a configuraciones profesionales, ideales para entrenar modelos, evaluar rendimiento, etc. Aunque no es indispensable para un usuario doméstico, es útil para quienes deseen experimentar a fondo o montar aplicaciones sobre LLM avanzados.

Requisitos del sistema y recomendaciones técnicas

No todos los modelos Gemma 3 podrán ejecutarse en cualquier PC. A continuación te dejamos una referencia general según el tipo de modelo:

  • Para modelos de 1B a 7B: mínimo 8 GB de RAM. Funcionan en casi cualquier PC moderno, incluso sin GPU.
  • Para modelos de 13B: se recomiendan de 16 GB a 24 GB de RAM.
  • Para modelos de 27B: se necesitan al menos 32 GB de RAM y, preferentemente, una GPU dedicada.

Disponer de más RAM agiliza el funcionamiento y evita errores por falta de memoria. Aunque Ollama y LM Studio tratan de aprovechar los recursos de forma eficiente, dependerá mucho de tu hardware. Además, la velocidad de respuesta mejora significativamente si se usa GPU en lugar de CPU.

Instalar Gemma 3 en Windows 11 es más accesible de lo que parece. Da igual si decides usar Ollama por su simplicidad, LM Studio por su interfaz gráfica o Google AI Studio para ir sobre seguro en la nube. Lo importante es que cada método se adapta a diferentes niveles de experiencia y capacidades técnicas. Ahora que conoces todas las alternativas y lo que necesitas para ponerlo en marcha, puedes empezar hoy mismo a experimentar con esta impresionante inteligencia artificial local.

Deja un comentario