- DeepSeek R1 は、コーディング アシスタントとして Visual Studio Code に統合できる無料のオープン ソース AI モデルです。
- クラウドに依存せずに DeepSeek をローカルで実行する方法はいくつかあり、Ollama、LM Studio、Jan などのツールもその 1 つです。
- DeepSeek を最大限に活用するには、利用可能なハードウェアに基づいて適切なモデルを選択し、CodeGPT や Cline などの拡張機能で正しく構成することが重要です。
ディープシークR1 他の代替ソリューションに代わる強力で無料の代替手段として登場しました。最大の利点は、開発者が IA アヴァンザダ クラウド サーバーに依存せずにコードのサポートを受けることができます。この記事では、 Visual Studio Code で DeepSeek を使用する方法.
そして、それは、 ローカル実行追加コストなしで統合が可能です。あなたがすべきことは、次のようなツールに頼ることだけです オラマ、LMスタジオ、ジャン、および次のようなプラグインとの統合 CodeGPT と Cline。次の段落ですべてを説明します。
ディープシーク R1 とは何ですか?
すでにここで説明したように、 ディープシークR1 あります オープンソース言語モデル 次のような商用ソリューションと競合する GPT-4 論理的推論タスク、コード生成、数学的問題解決において。その主な利点は 外部サーバーに依存せずにローカルで実行できる開発者に高いレベルのプライバシーを提供します。
利用可能なハードウェアに応じて、1.5 億のパラメータ (中程度のコンピュータ用) から 70 億のパラメータ (高度な GPU を搭載した高性能 PC 用) まで、さまざまなバージョンのモデルを使用できます。
VSCode で DeepSeek を実行する方法
最高のパフォーマンスを達成するには ディープシーク en Visual Studio Codeシステム上で実行するために適切なソリューションを選択することが重要です。主なオプションは 3 つあります。
オプション1: Ollamaを使用する
オラマ AI モデルをローカルで実行できる軽量プラットフォームです。 Ollama で DeepSeek をインストールして使用するには、次の手順に従ってください。
- Ollamaをダウンロードしてインストールする 公式サイトより(オラマ.com).
- ターミナルで以下を実行します:
ollama pull deepseek-r1:1.5b(軽量モデルの場合)、またはハードウェアが許せばより大きなバージョン。 - ダウンロードが完了すると、Ollamaはモデルをホストします。
http://localhost:11434VSCode にアクセスできるようになります。
オプション2: LM Studioを使用する
LMスタジオ は、これらのタイプの言語モデルを簡単にダウンロードして管理するためのもう 1 つの代替手段です (また、Visual Studio Code で DeepSeek を使用することもできます)。使い方は次のとおりです。
- まず、ダウンロードします LMスタジオ そしてそれをシステムにインストールします。
- モデルを検索してダウンロードする ディープシークR1 タブから 探索する.
- モデルをアップロードし、ローカル サーバーが Visual Studio Code で DeepSeek を実行できるようにします。
オプション3: Janを使用する
3番目にお勧めするオプションは XNUMX月AI モデルをローカルで実行するためのもう 1 つの実行可能な代替手段です。これを使用するには、次の手順を実行する必要があります。
- まず、 XNUMX月 お使いのオペレーティング システムに対応します。
- 次に、Hugging Face から DeepSeek R1 をダウンロードし、Jan にロードします。
- 最後に、サーバーを起動します。
http://localhost:1337VSCode で設定します。
さまざまな環境でDeepSeekを使用する方法についてさらに詳しく知りたい場合は、以下のガイドをご覧ください。 Windows 11 環境での DeepSeek.

DeepSeek と Visual Studio Code の統合
一度持ったら ディープシーク ローカルで作業している場合は、それを統合する時が来ました Visual Studio Code。これを行うには、次のような拡張機能を使用できます。 コードGPT o クライン.
CodeGPT の設定
- タブから 拡張機能 VSCode(Ctrl + Shift + X)で検索してインストールします コードGPT.
- 拡張機能の設定にアクセスし、 オラマ LLMプロバイダーとして。
- 実行するサーバーのURLを入力します ディープシーク ローカル。
- ダウンロードしたDeepSeekモデルを選択して保存します。
Cline の設定
クライン これは、コードの自動実行に重点を置いたツールです。 Visual Studio Code で DeepSeek を使用するには、次の手順に従います。
- 拡張機能をダウンロードする クライン VSCode で。
- 設定を開き、API プロバイダー (Ollama または Jan) を選択します。
- 実行されているローカルサーバーのURLを入力します ディープシーク.
- AIモデルを選択し、設定を確認します。
DeepSeekの実装の詳細については、以下をご覧ください。 Microsoft が DeepSeek R1 を Windows Copilot に統合する方法これにより、その機能についてより広い視点を得ることができます。
適切なモデルを選択するためのヒント
El Virtual Studio Code での DeepSeek のパフォーマンス 選択したモデルとハードウェアの機能によって大きく異なります。参考までに、次の表を参照してください。
| モデル | 必要なRAM | 推奨GPU |
|---|---|---|
| 1.5B | 4 GB | 統合型またはCPU |
| 7B | 8 10-GB | GTX 1660以降 |
| 14B | 16 GB以上 | 3060/3080 の |
| 70B | 40 GB以上 | RTX 4090 |
PC の性能が不足している場合は、より小さなモデルまたは量子化されたバージョンを選択して、メモリ消費を削減できます。
ご覧のとおり、Visual Studio Code で DeepSeek を使用すると、他の有料コード アシスタントに代わる優れた無料の代替手段が提供されます。ローカルで実行する可能性 オラマ, LMスタジオ o XNUMX月は、開発者にクラウドベースのサービスや月額費用に頼ることなく、高度なツールのメリットを享受する機会を提供します。環境を適切に設定すれば、完全に制御できるプライベートで強力な AI アシスタントが手に入ります。
テクノロジーとインターネット問題を専門とする編集者で、さまざまなデジタル メディアで 10 年以上の経験があります。私は、電子商取引、通信、オンライン マーケティング、広告会社で編集者およびコンテンツ作成者として働いてきました。経済、金融、その他の分野のウェブサイトにも執筆しています。私の仕事は私の情熱でもあります。さて、私の記事を通じて、 Tecnobits, 私は、私たちの生活を向上させるために、テクノロジーの世界が私たちに提供するすべてのニュースや新しい機会を毎日調査しようとしています。
