Comment utiliser DeepSeek dans Visual Studio Code

Dernière mise à jour: 10/03/2025

  • DeepSeek R1 est un modèle d’IA gratuit et open source que vous pouvez intégrer dans Visual Studio Code en tant qu’assistant de codage.
  • Il existe plusieurs façons d'exécuter DeepSeek localement sans dépendre du cloud, notamment des outils comme Ollama, LM Studio et Jan.
  • Pour tirer le meilleur parti de DeepSeek, il est essentiel de choisir le bon modèle en fonction de votre matériel disponible et de le configurer correctement dans des extensions comme CodeGPT ou Cline.
Deepseek dans VS Code

DeepSeek R1 est apparue comme une alternative puissante et gratuite aux autres solutions alternatives. Son meilleur atout est qu'il permet aux développeurs d'avoir une IA avancée pour une assistance au code sans dépendre de serveurs cloud. Dans cet article, nous vous expliquons Comment utiliser DeepSeek dans Visual Studio Code.

Et c'est que, grâce à sa disponibilité dans des versions optimisées pour exécution locale, son intégration est possible sans frais supplémentaires. Il vous suffit de recourir à des outils tels que Ollama, LM Studio et Jan, ainsi que l'intégration avec des plugins tels que CodeGPT et Cline. Nous vous disons tout dans les paragraphes suivants :

Qu’est-ce que DeepSeek R1 ?

Comme nous l’avons déjà expliqué ici, DeepSeek R1 est un modèle de langage open source qui concurrence les solutions commerciales telles que GPT-4 dans les tâches de raisonnement logique, de génération de code et de résolution de problèmes mathématiques. Son principal avantage est que peut être exécuté localement sans dépendre de serveurs externes, offrant un niveau élevé de confidentialité aux développeurs.

Contenu exclusif - Cliquez ici  OpenAI limite l'utilisation de ChatGPT dans les contextes médicaux et juridiques.

Selon le matériel disponible, différentes versions du modèle peuvent être utilisées, des paramètres 1.5B (pour les ordinateurs modestes) aux paramètres 70B (pour les PC hautes performances avec des GPU avancés).

DeepSeek dans Visual Studio Code

Méthodes pour exécuter DeepSeek dans VSCode

Pour obtenir les meilleures performances avec Recherche profonde en Visual Studio Code, il est essentiel de choisir la bonne solution pour l'exécuter sur votre système. Il existe trois options principales :

Option 1 : Utiliser Ollama

Ollama Il s'agit d'une plate-forme légère qui vous permet d'exécuter des modèles d'IA localement. Suivez ces étapes pour installer et utiliser DeepSeek avec Ollama :

  1. Téléchargez et installez Ollama depuis son site officiel (ollama.com).
  2. Dans un terminal, exécutez : ollama pull deepseek-r1:1.5b (pour les modèles plus légers) ou une variante plus grande si le matériel le permet.
  3. Une fois téléchargé, Ollama hébergera le modèle dans http://localhost:11434, le rendant accessible à VSCode.

Option 2 : Utilisation de LM Studio

Studio LM est une autre alternative pour télécharger et gérer facilement ces types de modèles de langage (et également pour utiliser DeepSeek dans Visual Studio Code). Voici comment l'utiliser :

  1. Tout d'abord, téléchargez Studio LM et installez-le sur votre système.
  2. Rechercher et télécharger le modèle DeepSeek R1 depuis l'onglet Découvrir.
  3. Téléchargez le modèle et activez le serveur local pour exécuter DeepSeek dans Visual Studio Code.
Contenu exclusif - Cliquez ici  Bixby misera sur la perplexité : le plan de Samsung pour son assistant

Option 3 : Utiliser Jan

La troisième option que nous recommandons est Janvier, une autre alternative viable pour exécuter des modèles d’IA localement. Pour l'utiliser, vous devez procéder comme suit :

  • Téléchargez d'abord la version de Janvier correspondant à votre système d'exploitation.
  • Téléchargez ensuite DeepSeek R1 depuis Hugging Face et chargez-le dans Jan.
  • Enfin, démarrez le serveur dans http://localhost:1337 et configurez-le dans VSCode.

Si vous souhaitez en savoir plus sur la façon d'utiliser DeepSeek dans différents environnements, n'hésitez pas à consulter notre guide sur DeepSeek dans les environnements Windows 11.

Deepseek dans VS Code

Intégration de DeepSeek avec Visual Studio Code

une fois que tu as Recherche profonde travaillant localement, il est temps de l'intégrer dans Visual Studio Code. Pour ce faire, vous pouvez utiliser des extensions comme CodeGPT o cline.

Configuration de CodeGPT

  1. Depuis l'onglet Extensions Dans VSCode (Ctrl + Maj + X), recherchez et installez CodeGPT.
  2. Accédez aux paramètres de l’extension et sélectionnez Ollama en tant que fournisseur de LLM.
  3. Entrez l'URL du serveur sur lequel il s'exécute Recherche profonde localement.
  4. Sélectionnez le modèle DeepSeek téléchargé et enregistrez-le.

Configuration de Cline

cline C'est un outil davantage orienté vers l'exécution automatique de code. Pour l'utiliser avec DeepSeek dans Visual Studio Code, suivez ces étapes :

  1. Télécharger l'extension cline dans VSCode.
  2. Ouvrez les paramètres et sélectionnez le fournisseur d'API (Ollama ou Jan).
  3. Entrez l'URL du serveur local sur lequel il s'exécute Recherche profonde.
  4. Choisissez le modèle d'IA et confirmez les paramètres.
Contenu exclusif - Cliquez ici  Projet Prometheus : le pari de Bezos sur l’IA physique dans l’industrie

Pour plus d'informations sur la mise en œuvre de DeepSeek, je vous recommande de consulter Comment Microsoft intègre DeepSeek R1 dans Windows Copilot, ce qui peut vous donner une perspective plus large sur leurs capacités.

Conseils pour choisir le bon modèle

El Performances de DeepSeek dans Virtual Studio Code dépendra en grande partie du modèle choisi et des capacités de votre matériel. Pour référence, le tableau suivant mérite d'être consulté :

Modèle RAM requise GPU recommandé
1.5B 4 GB Intégré ou CPU
7B 8-10 Go GTX 1660 ou supérieur
14B 16 Go et plus RTX3060/3080
70B 40 Go et plus RTX 4090

 

Si votre PC est sous-alimenté, vous pouvez opter pour des modèles plus petits ou des versions quantifiées pour réduire la consommation de mémoire.

Comme vous pouvez le voir, l’utilisation de DeepSeek dans Visual Studio Code nous offre une excellente alternative gratuite aux autres assistants de code payants. La possibilité de l'exécuter localement via Ollama, Studio LM o Janvier, offre aux développeurs la possibilité de bénéficier d'un outil avancé sans dépendre de services basés sur le cloud ou de coûts mensuels. Si vous configurez bien votre environnement, vous disposerez d'un assistant IA privé et puissant, entièrement sous votre contrôle.

comment utiliser DeepSeek-0
Article connexe:
DeepSeek : tout ce que vous devez savoir sur l'IA gratuite la plus innovante