- Gemma 3 是 Google 开发的高度灵活、多模式的 LLM 模型
- 它可以使用 Ollama、LM Studio 安装在 Windows 11 上,也可以通过 Google AI Studio 使用
- 根据模型的大小,需要不同的资源,从 8 GB 到 32 GB 的 RAM
- 集成图像输入和高达 128k 个上下文标记等高级功能
开源语言模型已经突飞猛进,并且 如今,我们可以直接从个人电脑上欣赏它们,而无需依赖云服务。。目前最有前途的产品之一是 Gemma 3,这是 Google 基于 Gemini 技术的全新 LLM,其突出特点是能够处理文本和图像,并且其高级版本拥有高达 128k 个标记的巨大上下文窗口。有关此版本的更多信息,您可以访问我们的文章 Gemma 3 的介绍.
如果你正在使用 Windows 11 并希望安装 Gemma 3 进行实验甚至本地生产,您来对地方了。让我们详细介绍在您的计算机上启动和运行它的所有可能方法,包括最推荐的选项,如 Ollama、LM Studio,以及基于云的 Google AI Studio 替代方案。此外,我们将讨论每种方法的技术要求、优点以及 如何充分发挥这种强大人工智能的潜力.
什么是 Gemma 3 以及为什么要安装它?

Gemma 3 是 Google 在开源许可下发布的第三代 LLM 模型。。与之前的 Llama 或 Mistral 等解决方案不同,它直接支持图像输入、更广泛的背景以及对 140 多种语言的支持。根据您的需要,您可以从 1B 到 27B 参数的多个模型版本中进行选择:
- 杰玛 3:1B:轻量级模型,非常适合基本任务和资源有限的环境。
- 杰玛 3:4B:平衡中级应用程序的性能和效率。
- 杰玛 3:12B:推荐用于复杂分析、编程和多语言处理。
- 杰玛 3:27B:最强大的选项,专为密集、多模式使用而设计,具有强大的语境容量。
在 PC 上运行如此先进模型的可能性 它改变了隐私、响应速度和对第三方的依赖方面的游戏规则。您不再需要支付月度订阅费用或放弃您的数据。所需要的只是一点准备和学习的愿望。如果您想进一步了解这些模型的好处,请查看我们的文章 开放权重AI模型.
选项 1:使用 Ollama 安装

Ollama 可能是在 Windows 3 上运行 Gemma 11 等 LLM 的最简单方法。其基于终端的界面允许您使用简单的命令行安装和运行模型。此外,它与 macOS、Linux 和 Windows 兼容,可轻松在各种环境中使用。
安装 Ollama 并运行 Gemma 3 的步骤:
- 访问官方网站: olama.com.
- 下载适用于 Windows 的安装程序 并像运行其他程序一样运行它。
- 打开命令提示符 (CMD) 或 PowerShell 并使用以下命令验证安装:
ollama --version
如果一切顺利,您现在可以下载任何可用的 Gemma 3 模板。根据您想要的模板,只需运行以下命令之一:
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
下载后,您可以轻松启动该模型。。为此,请运行:
ollama init gemma3
从那一刻起,您可以通过以下方式开始与 LLM 进行互动:
ollama query gemma3 "¿Cuál es la capital de Japón?"
如果你想利用多模态功能,您还可以在查询中使用图像:
ollama query gemma3 --image "ruta-de-la-imagen.jpg"
您需要做什么才能使其良好地运转? 虽然 Ollama 没有施加严格的最低要求,但较大的型号(如 27B)至少需要 32GB 的 RAM。使用 16GB,您可以毫无问题地使用 7B 型号,尽管 GPU 的使用不是强制性的,但它对速度有很大帮助。
选项 2:使用 LM Studio

LM Studio 是另一个免费工具,允许您从图形界面本地安装和运行 LLM 模型。。它兼容 Windows、macOS 和 Linux,其最大的优点是不需要技术知识即可操作。
说明:
- 从官方网站下载 LM Studio: lmstudio.ai.
- 安装并运行它。
- 单击“发现”的放大镜图标。
- 在搜索引擎中输入“Gemma 3”查看可用的型号。
安装前,请检查型号是否与您的设备兼容。如果您看到警告“可能对于这台机器来说太大”,您仍然可以安装它,但不能保证最佳性能。
下载兼容模型后:
- 单击“加载模型”即可加载。
- 或者打开新的聊天并从下拉菜单中选择模型。
LM Studio 的最大优点是它可以充当本地 ChatGPT,离线且使用您的语言。如果愿意,您可以创建多个聊天并保存您的对话。此外,如果您启用“本地服务器”选项,则可以使用与 OpenAI 兼容的 API 将其与您的 Python 应用程序集成。
选项 3:使用 Google AI Studio(在线)

如果你不能或不想安装任何东西,你可以直接从云端使用 Google AI Studio 中的 Gemma 3。无需安装,但需要互联网连接和 Google 帐户。
你只需要去 aistudio.google.com 并从模型列表中选择“Gemma 3”。从那一刻起,您就可以开始与模型聊天,就像它是 Bard 或 ChatGPT 的高级版本一样,包括图像输入。
使用 NodeShift 进行云安装(可选)
对于那些寻求更多功能或专业部署模型的人来说,可以选择使用像NodeShift这样的云服务。有了他们,您可以租用具有强大 GPU 的机器并配置理想的环境以无限制运行 Gemma 3。
NodeShift 的基本步骤:
- 在以下位置创建一个帐户 app.nodeshift.com.
- 启动自定义 GPU 节点(例如,使用 2x RTX 4090)。
- 根据您将使用 Ollama 还是 Transformers,选择预配置有 Ubuntu + Nvidia CUDA 或 Jupyter Notebook 的图像。
- 通过 SSH 连接并从命令行安装模型。
这种安装类型可让您访问专业配置,非常适合训练模型、评估性能等。虽然对于家庭用户来说不是必需的,但对于想要深入实验或在高级 LLM 上构建应用程序的人来说很有用。
系统要求和技术建议
并非所有 Gemma 3 型号都能在任何 PC 上运行。下面我们根据模型类型给您提供一般参考:
- 至 型号 1B 至 7B: 最低限度 GB的RAM 8。它们可以在几乎任何现代 PC 上运行,即使没有 GPU。
- 至 13B 型号:建议 16GB 至 24GB 内存.
- 至 27B 型号:需要 至少32 GB的RAM 最好是专用的 GPU。
拥有更多 RAM 可加快操作速度并防止因内存不足而导致的错误。虽然 Ollama 和 LM Studio 尝试高效地利用资源,但这很大程度上取决于您的硬件。另外,如果使用GPU代替CPU,响应速度会显著提高。
在 Windows 3 上安装 Gemma 11 比看起来要容易。。无论您决定使用 Ollama 来获得它的简单性,还是使用 LM Studio 来获得它的图形界面,还是使用 Google AI Studio 来在云端安全运行,都没有关系。重要的是,每种方法适应不同水平的经验和技术能力。现在您已经了解了所有选项以及开始所需的条件,您可以立即开始尝试这种令人印象深刻的本地人工智能。
我是一名技术爱好者,已将自己的“极客”兴趣变成了职业。出于纯粹的好奇心,我花了 10 多年的时间使用尖端技术并修改各种程序。现在我专攻计算机技术和视频游戏。这是因为 5 年多来,我一直在为各种技术和视频游戏网站撰写文章,旨在以每个人都能理解的语言为您提供所需的信息。
如果您有任何疑问,我的知识范围涵盖与 Windows 操作系统以及手机 Android 相关的所有内容。我对您的承诺是,我总是愿意花几分钟帮助您解决在这个互联网世界中可能遇到的任何问题。