如何在 Visual Studio Code 中使用 DeepSeek

最后更新: 10/03/2025

  • DeepSeek R1 是一个免费的开源 AI 模型,您可以将其集成到 Visual Studio Code 中作为编码助手。
  • 有几种方法可以在本地运行 DeepSeek 而不依赖云,包括 Ollama、LM Studio 和 Jan 等工具。
  • 为了充分利用 DeepSeek,关键是根据可用的硬件选择正确的模型,并在 CodeGPT 或 Cline 等扩展中正确配置它。
VS Code 中的 Deepseek

DeepSeek R1 已成为其他替代解决方案的强大且免费的替代方案。它最大的优点是允许开发人员 先进的人工智能 无需依赖云服务器即可获得代码帮助。在本文中我们将向您解释 如何在 Visual Studio Code 中使用 DeepSeek.

这是因为它有针对特定目的而优化的版本 本地执行,无需额外成本即可实现其集成。你所要做的就是利用 Ollama、LM Studio 和 Jan以及与插件的集成,例如 CodeGPT 和 Cline。我们将在以下段落中告诉您一切:

什么是 DeepSeek R1?

正如我们已经解释过的, DeepSeek R1 是 开源语言模型 与商业解决方案竞争,例如 GPT-4 在逻辑推理任务、代码生成和数学问题解决中。它的主要优点是 可以在本地运行,无需依赖外部服务器,为开发者提供高水平的隐私保护。

独家内容 - 点击这里  Manus AI:旨在引领未来的中国人工智能

根据可用的硬件,可以使用不同版本的模型,从 1.5B 参数(适用于普通计算机)到 70B 参数(适用于具有先进 GPU 的高性能 PC)。

Visual Studio Code 中的 DeepSeek

在 VSCode 中运行 DeepSeek 的方法

为了达到最佳性能 DeepSeek en Visual Studio代码,选择正确的解决方案在您的系统上运行它至关重要。主要有三个选项:

选项 1:使用 Ollama

奥拉马 它是一个轻量级平台,允许您在本地运行 AI 模型。按照以下步骤安装 DeepSeek 并将其与 Ollama 一起使用:

  1. 下载并安装 Ollama 来自其官方网站(olama.com).
  2. 在终端中运行: ollama pull deepseek-r1:1.5b (适用于更轻的型号)或者更大的型号(如果硬件允许)。
  3. 下载后,Ollama 将托管模型 http://localhost:11434,使其可供 VSCode 访问。

选项 2:使用 LM Studio

LM工作室 是轻松下载和管理这些类型的语言模型的另一种方法(也可以在 Visual Studio Code 中使用 DeepSeek)。使用方法如下:

  1. 一、下载 LM工作室 并将其安装到您的系统上。
  2. 搜索并下载模型 DeepSeek R1 从选项卡 探索.
  3. 上传模型并启用本地服务器以在 Visual Studio Code 中运行 DeepSeek。
独家内容 - 点击这里  如何免费参加谷歌人工智能课程并享受奖学金

选项 3:使用 Jan

我们推荐的第三个选项是 一月三十一日,在本地运行 AI 模型的另一种可行替代方案。要使用它,您必须执行以下操作:

  • 首先下载 一月三十一日 与您的操作系统相对应。
  • 然后从 Hugging Face 下载 DeepSeek R1 并将其加载到 Jan 中。
  • 最后,启动服务器 http://localhost:1337 并在 VSCode 中进行设置。

如果您想进一步了解如何在不同环境中使用 DeepSeek,请随时查看我们的指南 Windows 11 环境中的 DeepSeek.

VS Code 中的 Deepseek

DeepSeek 与 Visual Studio Code 集成

一旦有了 DeepSeek 在本地工作,是时候将其整合到 Visual Studio代码。为此,您可以使用以下扩展程序 代码GPT o 克莱因.

配置 CodeGPT

  1. 从标签 扩展 在 VSCode (Ctrl + Shift + X) 中,搜索并安装 代码GPT.
  2. 访问扩展设置并选择 奥拉马 作为 LLM 提供者。
  3. 输入运行服务器的 URL DeepSeek 当地。
  4. 选择下载的DeepSeek模型并保存。

配置 Cline

克莱因 它是一个更面向代码自动执行的工具。要在 Visual Studio Code 中将其与 DeepSeek 一起使用,请按照以下步骤操作:

  1. 下载扩展 克莱因 在 VSCode 中。
  2. 打开设置并选择 API 提供商(Ollama 或 Jan)。
  3. 输入运行的本地服务器的 URL DeepSeek.
  4. 选择AI模型,并确认设置。
独家内容 - 点击这里  如何在 Windows 4 上安装 Microsoft Phi-11 Multimodal

有关 DeepSeek 实现的更多信息,我建议你查看 微软如何将 DeepSeek R1 集成到 Windows Copilot,这可以让你更广阔的视角来了解他们的能力。

选择正确模型的技巧

El Virtual Studio Code 中的 DeepSeek 性能 很大程度上取决于所选择的模型和硬件的功能。作为参考,下表值得参考:

模型 所需 RAM 推荐 GPU
1.5B 4 GB 集成或 CPU
7B 8 10 GB GTX 1660或更高
14B 16 GB以上 显卡 3060/3080
70B 40 GB以上 RTX 4090

 

如果您的电脑性能不足,您可以选择较小的型号或量化版本来减少内存消耗。

如您所见,在 Visual Studio Code 中使用 DeepSeek 为我们提供了一个比其他付费代码助手更好的、免费的替代方案。在本地运行的可能性 奥拉马, LM工作室 o 一月三十一日,让开发人员有机会从先进的工具中受益,而无需依赖基于云的服务或每月的费用。如果你设置好你的环境,你将拥有一个完全受你控制的私人、强大的 AI 助手。

如何使用 DeepSeek-0
相关文章:
DeepSeek:您需要了解的有关最具创新性的免费人工智能的一切