Visual Studio Code で DeepSeek を使用する方法

最終更新: 10/03/2025

  • DeepSeek R1 は、コーディング アシスタントとして Visual Studio Code に統合できる無料のオープン ソース AI モデルです。
  • クラウドに依存せずに DeepSeek をローカルで実行する方法はいくつかあり、Ollama、LM Studio、Jan などのツールもその 1 つです。
  • DeepSeek を最大限に活用するには、利用可能なハードウェアに基づいて適切なモデルを選択し、CodeGPT や Cline などの拡張機能で正しく構成することが重要です。
VS Code での Deepseek

ディープシークR1 他の代替ソリューションに代わる強力で無料の代替手段として登場しました。最大の利点は、開発者が IA アヴァンザダ クラウド サーバーに依存せずにコードのサポートを受けることができます。この記事では、 Visual Studio Code で DeepSeek を使用する方法.

そして、それは、 ローカル実行追加コストなしで統合が可能です。あなたがすべきことは、次のようなツールに頼ることだけです オラマ、LMスタジオ、ジャン、および次のようなプラグインとの統合 CodeGPT と Cline。次の段落ですべてを説明します。

ディープシーク R1 とは何ですか?

すでにここで説明したように、 ディープシークR1 あります オープンソース言語モデル 次のような商用ソリューションと競合する GPT-4 論理的推論タスク、コード生成、数学的問題解決において。その主な利点は 外部サーバーに依存せずにローカルで実行できる開発者に高いレベルのプライバシーを提供します。

限定コンテンツ - ここをクリックしてください  GPT-4.5 Orion の使い方: 機能、改善点、可用性

利用可能なハードウェアに応じて、1.5 億のパラメータ (中程度のコンピュータ用) から 70 億のパラメータ (高度な GPU を搭載した高性能 PC 用) まで、さまざまなバージョンのモデルを使用できます。

Visual Studio Code での DeepSeek

VSCode で DeepSeek を実行する方法

最高のパフォーマンスを達成するには ディープシーク en Visual Studio Codeシステム上で実行するために適切なソリューションを選択することが重要です。主なオプションは 3 つあります。

オプション1: Ollamaを使用する

オラマ AI モデルをローカルで実行できる軽量プラットフォームです。 Ollama で DeepSeek をインストールして使用するには、次の手順に従ってください。

  1. Ollamaをダウンロードしてインストールする 公式サイトより(オラマ.com).
  2. ターミナルで以下を実行します: ollama pull deepseek-r1:1.5b (軽量モデルの場合)、またはハードウェアが許せばより大きなバージョン。
  3. ダウンロードが完了すると、Ollamaはモデルをホストします。 http://localhost:11434VSCode にアクセスできるようになります。

オプション2: LM Studioを使用する

LMスタジオ は、これらのタイプの言語モデルを簡単にダウンロードして管理するためのもう 1 つの代替手段です (また、Visual Studio Code で DeepSeek を使用することもできます)。使い方は次のとおりです。

  1. まず、ダウンロードします LMスタジオ そしてそれをシステムにインストールします。
  2. モデルを検索してダウンロードする ディープシークR1 タブから 探索する.
  3. モデルをアップロードし、ローカル サーバーが Visual Studio Code で DeepSeek を実行できるようにします。
限定コンテンツ - ここをクリックしてください  人工知能の特徴 

オプション3: Janを使用する

3番目にお勧めするオプションは XNUMX月AI モデルをローカルで実行するためのもう 1 つの実行可能な代替手段です。これを使用するには、次の手順を実行する必要があります。

  • まず、 XNUMX月 お使いのオペレーティング システムに対応します。
  • 次に、Hugging Face から DeepSeek R1 をダウンロードし、Jan にロードします。
  • 最後に、サーバーを起動します。 http://localhost:1337 VSCode で設定します。

さまざまな環境でDeepSeekを使用する方法についてさらに詳しく知りたい場合は、以下のガイドをご覧ください。 Windows 11 環境での DeepSeek.

VS Code での Deepseek

DeepSeek と Visual Studio Code の統合

一度持ったら ディープシーク ローカルで作業している場合は、それを統合する時が来ました Visual Studio Code。これを行うには、次のような拡張機能を使用できます。 コードGPT o クライン.

CodeGPT の設定

  1. タブから 拡張機能 VSCode(Ctrl + Shift + X)で検索してインストールします コードGPT.
  2. 拡張機能の設定にアクセスし、 オラマ LLMプロバイダーとして。
  3. 実行するサーバーのURLを入力します ディープシーク ローカル。
  4. ダウンロードしたDeepSeekモデルを選択して保存します。

Cline の設定

クライン これは、コードの自動実行に重点を置いたツールです。 Visual Studio Code で DeepSeek を使用するには、次の手順に従います。

  1. 拡張機能をダウンロードする クライン VSCode で。
  2. 設定を開き、API プロバイダー (Ollama または Jan) を選択します。
  3. 実行されているローカルサーバーのURLを入力します ディープシーク.
  4. AIモデルを選択し、設定を確認します。
限定コンテンツ - ここをクリックしてください  カリフォルニア州、AIチャットボットを規制し未成年者を保護するための法案SB243を可決

DeepSeekの実装の詳細については、以下をご覧ください。 Microsoft が DeepSeek R1 を Windows Copilot に統合する方法これにより、その機能についてより広い視点を得ることができます。

適切なモデルを選択するためのヒント

El Virtual Studio Code での DeepSeek のパフォーマンス 選択したモデルとハードウェアの機能によって大きく異なります。参考までに、次の表を参照してください。

モデル 必要なRAM 推奨GPU
1.5B 4 GB 統合型またはCPU
7B 8 10-GB GTX 1660以降
14B 16 GB以上 3060/3080 の
70B 40 GB以上 RTX 4090

 

PC の性能が不足している場合は、より小さなモデルまたは量子化されたバージョンを選択して、メモリ消費を削減できます。

ご覧のとおり、Visual Studio Code で DeepSeek を使用すると、他の有料コード アシスタントに代わる優れた無料の代替手段が提供されます。ローカルで実行する可能性 オラマ, LMスタジオ o XNUMX月は、開発者にクラウドベースのサービスや月額費用に頼ることなく、高度なツールのメリットを享受する機会を提供します。環境を適切に設定すれば、完全に制御できるプライベートで強力な AI アシスタントが手に入ります。

DeepSeek-0の使い方
関連記事
DeepSeek: 最も革新的な無料 AI について知っておくべきことすべて