如何在 Windows 3 上逐步安装 Gemma 11 LLM

最后更新: 02/04/2025

  • Gemma 3 是 Google 开发的高度灵活、多模式的 LLM 模型
  • 它可以使用 Ollama、LM Studio 安装在 Windows 11 上,也可以通过 Google AI Studio 使用
  • 根据模型的大小,需要不同的资源,从 8 GB 到 32 GB 的 RAM
  • 集成图像输入和高达 128k 个上下文标记等高级功能
如何在 Windows 3/11 上安装 Gemma 8 LLM

开源语言模型已经突飞猛进,并且 如今,我们可以直接从个人电脑上欣赏它们,而无需依赖云服务。。目前最有前途的产品之一是 Gemma 3,这是 Google 基于 Gemini 技术的全新 LLM,其突出特点是能够处理文本和图像,并且其高级版本拥有高达 128k 个标记的巨大上下文窗口。有关此版本的更多信息,您可以访问我们的文章 Gemma 3 的介绍.

如果你正在使用 Windows 11 并希望安装 Gemma 3 进行实验甚至本地生产,您来对地方了。让我们详细介绍在您的计算机上启动和运行它的所有可能方法,包括最推荐的选项,如 Ollama、LM Studio,以及基于云的 Google AI Studio 替代方案。此外,我们将讨论每种方法的技术要求、优点以及 如何充分发挥这种强大人工智能的潜力.

什么是 Gemma 3 以及为什么要安装它?

谷歌推出 Gemma 3-4

Gemma 3 是 Google 在开源许可下发布的第三代 LLM 模型。。与之前的 Llama 或 Mistral 等解决方案不同,它直接支持图像输入、更广泛的背景以及对 140 多种语言的支持。根据您的需要,您可以从 1B 到 27B 参数的多个模型版本中进行选择:

  • 杰玛 3:1B:轻量级模型,非常适合基本任务和资源有限的环境。
  • 杰玛 3:4B:平衡中级应用程序的性能和效率。
  • 杰玛 3:12B:推荐用于复杂分析、编程和多语言处理。
  • 杰玛 3:27B:最强大的选项,专为密集、多模式使用而设计,具有强大的语境容量。
独家内容 - 点击这里  如何在 Sweatcoin 中兑现?

在 PC 上运行如此先进模型的可能性 它改变了隐私、响应速度和对第三方的依赖方面的游戏规则。您不再需要支付月度订阅费用或放弃您的数据。所需要的只是一点准备和学习的愿望。如果您想进一步了解这些模型的好处,请查看我们的文章 开放权重AI模型.

选项 1:使用 Ollama 安装

Ollama 下载

Ollama 可能是在 Windows 3 上运行 Gemma 11 等 LLM 的最简单方法。其基于终端的界面允许您使用简单的命令行安装和运行模型。此外,它与 macOS、Linux 和 Windows 兼容,可轻松在各种环境中使用。

安装 Ollama 并运行 Gemma 3 的步骤:

  1. 访问官方网站: olama.com.
  2. 下载适用于 Windows 的安装程序 并像运行其他程序一样运行它。
  3. 打开命令提示符 (CMD) 或 PowerShell 并使用以下命令验证安装:
ollama --version

如果一切顺利,您现在可以下载任何可用的 Gemma 3 模板。根据您想要的模板,只需运行以下命令之一:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

下载后,您可以轻松启动该模型。。为此,请运行:

ollama init gemma3

从那一刻起,您可以通过以下方式开始与 LLM 进行互动:

ollama query gemma3 "¿Cuál es la capital de Japón?"

如果你想利用多模态功能,您还可以在查询中使用图像:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

您需要做什么才能使其良好地运转? 虽然 Ollama 没有施加严格的最低要求,但较大的型号(如 27B)至少需要 32GB 的 RAM。使用 16GB,您可以毫无问题地使用 7B 型号,尽管 GPU 的使用不是强制性的,但它对速度有很大帮助。

独家内容 - 点击这里  如何使用 1C 键盘进行语音听写?

选项 2:使用 LM Studio

LM工作室

LM Studio 是另一个免费工具,允许您从图形界面本地安装和运行 LLM 模型。。它兼容 Windows、macOS 和 Linux,其最大的优点是不需要技术知识即可操作。

说明:

  1. 从官方网站下载 LM Studio: lmstudio.ai.
  2. 安装并运行它。
  3. 单击“发现”的放大镜图标。
  4. 在搜索引擎中输入“Gemma 3”查看可用的型号。

安装前,请检查型号是否与您的设备兼容。如果您看到警告“可能对于这台机器来说太大”,您仍然可以安装它,但不能保证最佳性能。

下载兼容模型后:

  • 单击“加载模型”即可加载。
  • 或者打开新的聊天并从下拉菜单中选择模型。

LM Studio 的最大优点是它可以充当本地 ChatGPT,离线且使用您的语言。如果愿意,您可以创建多个聊天并保存您的对话。此外,如果您启用“本地服务器”选项,则可以使用与 OpenAI 兼容的 API 将其与您的 Python 应用程序集成。

选项 3:使用 Google AI Studio(在线)

谷歌人工智能工作室

如果你不能或不想安装任何东西,你可以直接从云端使用 Google AI Studio 中的 Gemma 3。无需安装,但需要互联网连接和 Google 帐户。

你只需要去 aistudio.google.com 并从模型列表中选择“Gemma 3”。从那一刻起,您就可以开始与模型聊天,就像它是 Bard 或 ChatGPT 的高级版本一样,包括图像输入。

使用 NodeShift 进行云安装(可选)

对于那些寻求更多功能或专业部署模型的人来说,可以选择使用像NodeShift这样的云服务。有了他们,您可以租用具有强大 GPU 的机器并配置理想的环境以无限制运行 Gemma 3。

独家内容 - 点击这里  Nike Run Club 应用程序如何跟踪跑步统计数据?

NodeShift 的基本步骤:

  1. 在以下位置创建一个帐户 app.nodeshift.com.
  2. 启动自定义 GPU 节点(例如,使用 2x RTX 4090)。
  3. 根据您将使用 Ollama 还是 Transformers,选择预配置有 Ubuntu + Nvidia CUDA 或 Jupyter Notebook 的图像。
  4. 通过 SSH 连接并从命令行安装模型。

这种安装类型可让您访问专业配置,非常适合训练模型、评估性能等。虽然对于家庭用户来说不是必需的,但对于想要深入实验或在高级 LLM 上构建应用程序的人来说很有用。

系统要求和技术建议

并非所有 Gemma 3 型号都能在任何 PC 上运行。下面我们根据模型类型给您提供一般参考:

  • 型号 1B 至 7B: 最低限度 GB的RAM 8。它们可以在几乎任何现代 PC 上运行,即使没有 GPU。
  • 13B 型号:建议 16GB 至 24GB 内存.
  • 27B 型号:需要 至少32 GB的RAM 最好是专用的 GPU。

拥有更多 RAM 可加快操作速度并防止因内存不足而导致的错误。虽然 Ollama 和 LM Studio 尝试高效地利用资源,但这很大程度上取决于您的硬件。另外,如果使用GPU代替CPU,响应速度会显著提高。

在 Windows 3 上安装 Gemma 11 比看起来要容易。。无论您决定使用 Ollama 来获得它的简单性,还是使用 LM Studio 来获得它的图形界面,还是使用 Google AI Studio 来在云端安全运行,都没有关系。重要的是,每种方法适应不同水平的经验和技术能力。现在您已经了解了所有选项以及开始所需的条件,您可以立即开始尝试这种令人印象深刻的本地人工智能。