如何在 Raspberry Pi 1 上逐步运行 DeepSeek R5

最后更新: 2025年06月02日

  • DeepSeek R1 是一个开源 AI 模型 它可以在本地硬件上运行,但有一定的限制。
  • Raspberry Pi 5 只能运行精简版 模型,因为完整模型需要强大的硬件。
  • 可以使用蒸馏模型 以提高效率并使其适应资源更少的设备。
  • Llama.cpp 和 Open WebUI 是以可访问的方式在本地运行 DeepSeek R1 的关键工具。
如何在 Raspberry Pi 1 上运行 DeepSeek R5

如何在 Raspberry Pi 1 上运行 DeepSeek R5? 能?让我们看看。自从开源AI模型问世以来,许多爱好者一直在寻找在自己的设备上运行它们的方法。最有前途的模型之一是 DeepSeek R1,这是中国开发的一个模型,事实证明它可以与 OpenAI 最先进的模型相媲美。然而,最大的问题是这个。

简单的回答是肯定的,但是有一定的限制。在本文中,我们将详细分析如何实现这一点, 如何配置它 y 可以期待什么结果 取决于可用的硬件。以下是关于如何在 Raspberry Pi 1 上运行 DeepSeek R5 的文章。请记住,使用搜索引擎 Tecnobits,您将找到有关 Raspberry 和其他硬件或软件的更多信息。

DeepSeek R1 是什么?它有何特别之处?

如何在 Raspberry Pi 1 上运行 DeepSeek R5

DeepSeek R1 是一个开源 AI 模型,它因以下特点而让社区感到惊讶: 效率 y 表现。与许多其他模型不同,它提供了在本地硬件上运行的可能性,使其成为 云解决方案 例如 ChatGPT。

独家内容 - 点击这里  如何打开 PM 文件

然而,最完整的型号 DeepSeek R1 671B 占用超过 400 GB 并且需要多张高性能显卡才能正常运行。虽然大多数人无法获得完整版,但 精简版本 它可以在像 Raspberry Pi 这样的更普通的硬件上运行。

如果你喜欢树莓派的世界 Tecnobits 我们有很多关于上述硬件的信息。例如,我们为您带来这则新闻,其中我们谈到 树莓派 Pico:售价仅 4 欧元的全新开发板.

在 Raspberry Pi 1 上运行 DeepSeek R5

覆盆子

Raspberry Pi 5 是一款 强大的迷你电脑 与前辈相比,但在人工智能方面仍然存在显着的局限性。要使 DeepSeek R1 在此设备上运行,必须采取 轻量版 该模型。

先决条件

  • 一个 树莓派 5 至少配备 8 GB 内存。
  • 一张 microSD 卡 高容量和速度 来存储必要的文件。
  • 基于 Linux 的操作系统,例如 树莓派操作系统 或者Ubuntu。
  • 互联网连接下载模型文件。
  • 访问终端来安装并运行 所需软件.

现在我们已经准备好开始学习如何在 Raspberry Pi 1 上运行 DeepSeek R5。

安装关键部件

要在 Raspberry Pi 上运行 DeepSeek R1,你需要安装 关键工具集。下面我们一步一步解释如何做到这一点。

独家内容 - 点击这里  如何首次获取 RFC

1.安装Llama.cpp

Llama.cpp 是一款可以在设备上高效运行 AI 模型的软件 资源有限。要安装它,请使用以下命令:

sudo apt update && sudo apt upgrade -y sudo apt install git cmake build-essential -y git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp make

此过程将下载并 将编译 Raspberry Pi 上的工具。

2. 下载精简后的 DeepSeek R1 模型

为了确保 Raspberry Pi 5 上的可管理性能,建议使用版本 DeepSeek R1 1.5B,大小约为1 GB。

你可以使用以下命令从 Hugging Face 下载它(Python 版本):

从 huggingface_hub 导入 snapper_download snapper_download(repo_id='DeepSeek-R1-1.5B', local_dir='DeepSeek-R1')

3. 设置并运行服务器

下载模型后,下一步是用 Llama.cpp 运行它。使用以下命令:

./llama-server --model /path_to_your_model/DeepSeek-R1-1.5B.gguf --port 10000 --ctx-size 1024 --n-gpu-layers 40

如果一切顺利,服务器将运行 http://127.0.0.1:10000.

4. 与 Open WebUI 集成

打开Webui

为了方便 相互作用 使用该模型,Open WebUI 是一个图形界面,允许您发送问题并接收答案,而无需编写命令 手动。要连接到 Llama.cpp 服务器,请按照下列步骤操作:

  1. 打开打开 WebUI。
  2. 转到设置 > 连接 > OpenAI。
  3. 输入网址 http://127.0.0.1:10000 在设置中。
  4. 保存更改并开始从 Web 界面使用 DeepSeek R1。

如何在 Raspberry Pi 1 上运行 DeepSeek R5 是否清楚?还有更多适合您的。

可以预期取得哪些结果?

尽管 DeepSeek R1 可以在 Raspberry Pi 5 上运行,但仍有几点注意事项需要考虑: 重要局限性:

  • 一场演出 非常有限 与模型的完整版本相比。
  • 文本生成 慢的,尤其是参数超过 7B 的模型。
  • 答案 不太精确 与在强大硬件上运行的大型模型相比。
独家内容 - 点击这里  如何在 Word 中替换单词

在对不同版本的模型进行的测试中发现,版本 最推荐的是 1.5B 对于 Raspberry Pi 5 来说,尽管性能仍然一般。在我们完成关于如何在 Raspberry Pi 1 上运行 DeepSeek R5 的文章之前,我们还有一些关于轻量级模型中不同用例的内容要告诉您。

轻量级模型的用例

虽然 Raspberry Pi 无法处理巨型模型,但缩小版在某些方面仍然有用 场景:

  • 基本代码生成和数学帮助。
  • 家庭自动化项目中的自动化。
  • 支持嵌入式系统中的特定任务。

能够在价格合理的硬件上运行先进的人工智能模型无疑是开源世界的一大进步。虽然 树莓派 5 无法提供与具有多个 GPU 的服务器相当的体验,探索这些选项开辟了新的 赔率 用于低成本计算。如果你有兴趣尝试一下,请按照本指南中的步骤,尝试不同版本的模型来 调整性能 满足您的需求。我们希望这篇关于如何在 Raspberry Pi 1 上运行 DeepSeek R5 的文章对您有所帮助。