- DeepSeek R1 est un modèle d’IA gratuit et open source que vous pouvez intégrer dans Visual Studio Code en tant qu’assistant de codage.
- Il existe plusieurs façons d'exécuter DeepSeek localement sans dépendre du cloud, notamment des outils comme Ollama, LM Studio et Jan.
- Pour tirer le meilleur parti de DeepSeek, il est essentiel de choisir le bon modèle en fonction de votre matériel disponible et de le configurer correctement dans des extensions comme CodeGPT ou Cline.
DeepSeek R1 est apparue comme une alternative puissante et gratuite aux autres solutions alternatives. Son meilleur atout est qu'il permet aux développeurs d'avoir une IA avancée pour une assistance au code sans dépendre de serveurs cloud. Dans cet article, nous vous expliquons Comment utiliser DeepSeek dans Visual Studio Code.
Et c'est que, grâce à sa disponibilité dans des versions optimisées pour exécution locale, son intégration est possible sans frais supplémentaires. Il vous suffit de recourir à des outils tels que Ollama, LM Studio et Jan, ainsi que l'intégration avec des plugins tels que CodeGPT et Cline. Nous vous disons tout dans les paragraphes suivants :
Qu’est-ce que DeepSeek R1 ?
Comme nous l’avons déjà expliqué ici, DeepSeek R1 est un modèle de langage open source qui concurrence les solutions commerciales telles que GPT-4 dans les tâches de raisonnement logique, de génération de code et de résolution de problèmes mathématiques. Son principal avantage est que peut être exécuté localement sans dépendre de serveurs externes, offrant un niveau élevé de confidentialité aux développeurs.
Selon le matériel disponible, différentes versions du modèle peuvent être utilisées, des paramètres 1.5B (pour les ordinateurs modestes) aux paramètres 70B (pour les PC hautes performances avec des GPU avancés).
Méthodes pour exécuter DeepSeek dans VSCode
Pour obtenir les meilleures performances avec Recherche profonde en Visual Studio Code, il est essentiel de choisir la bonne solution pour l'exécuter sur votre système. Il existe trois options principales :
Option 1 : Utiliser Ollama
Ollama Il s'agit d'une plate-forme légère qui vous permet d'exécuter des modèles d'IA localement. Suivez ces étapes pour installer et utiliser DeepSeek avec Ollama :
- Téléchargez et installez Ollama depuis son site officiel (ollama.com).
- Dans un terminal, exécutez :
ollama pull deepseek-r1:1.5b(pour les modèles plus légers) ou une variante plus grande si le matériel le permet. - Une fois téléchargé, Ollama hébergera le modèle dans
http://localhost:11434, le rendant accessible à VSCode.
Option 2 : Utilisation de LM Studio
Studio LM est une autre alternative pour télécharger et gérer facilement ces types de modèles de langage (et également pour utiliser DeepSeek dans Visual Studio Code). Voici comment l'utiliser :
- Tout d'abord, téléchargez Studio LM et installez-le sur votre système.
- Rechercher et télécharger le modèle DeepSeek R1 depuis l'onglet Découvrir.
- Téléchargez le modèle et activez le serveur local pour exécuter DeepSeek dans Visual Studio Code.
Option 3 : Utiliser Jan
La troisième option que nous recommandons est Janvier, une autre alternative viable pour exécuter des modèles d’IA localement. Pour l'utiliser, vous devez procéder comme suit :
- Téléchargez d'abord la version de Janvier correspondant à votre système d'exploitation.
- Téléchargez ensuite DeepSeek R1 depuis Hugging Face et chargez-le dans Jan.
- Enfin, démarrez le serveur dans
http://localhost:1337et configurez-le dans VSCode.
Si vous souhaitez en savoir plus sur la façon d'utiliser DeepSeek dans différents environnements, n'hésitez pas à consulter notre guide sur DeepSeek dans les environnements Windows 11.

Intégration de DeepSeek avec Visual Studio Code
une fois que tu as Recherche profonde travaillant localement, il est temps de l'intégrer dans Visual Studio Code. Pour ce faire, vous pouvez utiliser des extensions comme CodeGPT o cline.
Configuration de CodeGPT
- Depuis l'onglet Extensions Dans VSCode (Ctrl + Maj + X), recherchez et installez CodeGPT.
- Accédez aux paramètres de l’extension et sélectionnez Ollama en tant que fournisseur de LLM.
- Entrez l'URL du serveur sur lequel il s'exécute Recherche profonde localement.
- Sélectionnez le modèle DeepSeek téléchargé et enregistrez-le.
Configuration de Cline
cline C'est un outil davantage orienté vers l'exécution automatique de code. Pour l'utiliser avec DeepSeek dans Visual Studio Code, suivez ces étapes :
- Télécharger l'extension cline dans VSCode.
- Ouvrez les paramètres et sélectionnez le fournisseur d'API (Ollama ou Jan).
- Entrez l'URL du serveur local sur lequel il s'exécute Recherche profonde.
- Choisissez le modèle d'IA et confirmez les paramètres.
Pour plus d'informations sur la mise en œuvre de DeepSeek, je vous recommande de consulter Comment Microsoft intègre DeepSeek R1 dans Windows Copilot, ce qui peut vous donner une perspective plus large sur leurs capacités.
Conseils pour choisir le bon modèle
El Performances de DeepSeek dans Virtual Studio Code dépendra en grande partie du modèle choisi et des capacités de votre matériel. Pour référence, le tableau suivant mérite d'être consulté :
| Modèle | RAM requise | GPU recommandé |
|---|---|---|
| 1.5B | 4 GB | Intégré ou CPU |
| 7B | 8-10 Go | GTX 1660 ou supérieur |
| 14B | 16 Go et plus | RTX3060/3080 |
| 70B | 40 Go et plus | RTX 4090 |
Si votre PC est sous-alimenté, vous pouvez opter pour des modèles plus petits ou des versions quantifiées pour réduire la consommation de mémoire.
Comme vous pouvez le voir, l’utilisation de DeepSeek dans Visual Studio Code nous offre une excellente alternative gratuite aux autres assistants de code payants. La possibilité de l'exécuter localement via Ollama, Studio LM o Janvier, offre aux développeurs la possibilité de bénéficier d'un outil avancé sans dépendre de services basés sur le cloud ou de coûts mensuels. Si vous configurez bien votre environnement, vous disposerez d'un assistant IA privé et puissant, entièrement sous votre contrôle.
Rédacteur spécialisé dans les problématiques technologiques et Internet avec plus de dix ans d'expérience dans différents médias numériques. J'ai travaillé comme éditeur et créateur de contenu pour des sociétés de commerce électronique, de communication, de marketing en ligne et de publicité. J'ai également écrit sur des sites Web d'économie, de finance et d'autres secteurs. Mon travail est aussi ma passion. Maintenant, à travers mes articles dans Tecnobits, j'essaie d'explorer toutes les actualités et les nouvelles opportunités que le monde de la technologie nous offre chaque jour pour améliorer nos vies.
