Como usar DeepSeek en Visual Studio Code

Última actualización: 10/03/2025

  • DeepSeek R1 é un modelo de IA gratuíto e de código aberto que podes integrar en Visual Studio Code como asistente de codificación.
  • Hai varias formas de executar DeepSeek localmente sen depender da nube, incluíndo ferramentas como Ollama, LM Studio e Jan.
  • Para sacar o máximo proveito de DeepSeek, é fundamental escoller o modelo correcto en función do hardware dispoñible e configuralo correctamente en extensións como CodeGPT ou Cline.
Deepseek en VS Code

DeepSeek R1 emerxeu como unha alternativa poderosa e gratuíta a outras solucións alternativas. A súa mellor vantaxe é que permite aos desenvolvedores ter un IA avanzada para obter asistencia de código sen depender de servidores na nube. Neste artigo explicámosche Como usar DeepSeek en Visual Studio Code.

E é que, grazas á súa dispoñibilidade en versións optimizadas para execución local, a súa integración é posible sen custos adicionais. Todo o que tes que facer é recorrer a ferramentas como Ollama, LM Studio e Jan, así como a integración con complementos como CodeGPT e Cline. Contámosche todo nos seguintes parágrafos:

Que é DeepSeek R1?

Como xa explicamos aquí, DeepSeek R1 é un modelo de linguaxe de código aberto que compite con solucións comerciais como GPT-4 en tarefas de razoamento lóxico, xeración de código e resolución de problemas matemáticos. A súa principal vantaxe é que pódese executar localmente sen depender de servidores externos, proporcionando un alto nivel de privacidade para os desenvolvedores.

Contido exclusivo - Fai clic aquí  Como usar GPT-4.5 Orion: características, melloras e dispoñibilidade

Segundo o hardware dispoñible, pódense utilizar diferentes versións do modelo, desde parámetros 1.5B (para ordenadores modestos) ata parámetros 70B (para PCs de alto rendemento con GPU avanzadas).

DeepSeek en Visual Studio Code

Métodos para executar DeepSeek en VSCode

Para conseguir o mellor rendemento con DeepSeek en Código Visual Studio, é esencial escoller a solución correcta para executala no seu sistema. Hai tres opcións principais:

Opción 1: Usando Ollama

Olama É unha plataforma lixeira que che permite executar modelos de IA localmente. Siga estes pasos para instalar e usar DeepSeek con Ollama:

  1. Descarga e instala Ollama dende o seu sitio web oficial (ollama.com).
  2. Nun terminal, executa: ollama pull deepseek-r1:1.5b (para modelos máis lixeiros) ou unha variante máis grande se o hardware o permite.
  3. Unha vez descargado, Ollama aloxará o modelo http://localhost:11434, facéndoo accesible a VSCode.

Opción 2: Usando LM Studio

Estudio LM é outra alternativa para descargar e xestionar facilmente este tipo de modelos de linguaxe (e tamén para usar DeepSeek en Visual Studio Code). Así é como usalo:

  1. Primeiro, descarga Estudio LM e instálalo no teu sistema.
  2. Busca e descarga o modelo DeepSeek R1 desde a pestana Discover.
  3. Cargue o modelo e habilite o servidor local para executar DeepSeek en Visual Studio Code.
Contido exclusivo - Fai clic aquí  Características da intelixencia artificial 

Opción 3: usar Jan

A terceira opción que recomendamos é Xan, outra alternativa viable para executar modelos de IA localmente. Para usalo, debes facer o seguinte:

  • Primeiro descarga a versión de Xan correspondente ao seu sistema operativo.
  • Despois descarga DeepSeek R1 de Hugging Face e cárgao en xaneiro.
  • Finalmente, inicia o servidor http://localhost:1337 e configúrao en VSCode.

Se queres explorar máis sobre como usar DeepSeek en diferentes ambientes, non dubides en consultar a nosa guía DeepSeek en ambientes Windows 11.

Deepseek en VS Code

Integración DeepSeek con Visual Studio Code

Unha vez que teñas DeepSeek traballando localmente, é hora de integralo Código Visual Studio. Para iso, pode usar extensións como CódigoGPT o clinar.

Configurando CodeGPT

  1. Desde a pestana Extensións En VSCode (Ctrl + Shift + X), busque e instale CódigoGPT.
  2. Acceda á configuración da extensión e seleccione Olama como provedor de LLM.
  3. Introduza o URL do servidor onde se executa DeepSeek localmente.
  4. Seleccione o modelo DeepSeek descargado e gárdeo.

Configurando Cline

clinar É unha ferramenta máis orientada á execución automática de código. Para usalo con DeepSeek en Visual Studio Code, siga estes pasos:

  1. Descarga a extensión clinar en VSCode.
  2. Abra a configuración e seleccione o provedor de API (Ollama ou Jan).
  3. Introduza o URL do servidor local onde se está a executar DeepSeek.
  4. Escolla o modelo AI e confirme a configuración.
Contido exclusivo - Fai clic aquí  California aproba o proxecto de lei SB 243 para regular os chatbots de IA e protexer os menores

Para obter máis información sobre a implementación de DeepSeek, recoméndoche que consultes Como Microsoft integra DeepSeek R1 en Windows Copilot, o que pode darlle unha perspectiva máis ampla sobre as súas capacidades.

Consellos para escoller o modelo correcto

El Rendemento de DeepSeek en Virtual Studio Code dependerá en gran medida do modelo escollido e das capacidades do teu hardware. Como referencia, paga a pena consultar a seguinte táboa:

Modelo RAM necesaria GPU recomendada
1.5B 4 GB Integrado ou CPU
7B 8-10 GB GTX 1660 ou superior
14B 16 GB+ RTX 3060/3080
70B 40 GB+ RTX 4090

 

Se o teu PC ten poca potencia, podes optar por modelos máis pequenos ou versións cuantificadas para reducir o consumo de memoria.

Como podes ver, usar DeepSeek en Visual Studio Code ofrécenos unha excelente alternativa gratuíta a outros asistentes de código de pago. A posibilidade de executalo localmente Olama, Estudio LM o Xan, ofrece aos desenvolvedores a oportunidade de beneficiarse dunha ferramenta avanzada sen depender de servizos baseados na nube nin de custos mensuais. Se configuras ben o teu ambiente, terás un asistente de IA poderoso e privado baixo o teu control.

como usar DeepSeek-0
Artigo relacionado:
DeepSeek: todo o que necesitas saber sobre a IA gratuíta máis innovadora