Cómo usar DeepSeek en Visual Studio Code

  • DeepSeek R1 es un modelo de IA gratuito y open-source que puedes integrar en Visual Studio Code como asistente de codificación.
  • Existen varias formas de ejecutar DeepSeek localmente sin depender de la nube, incluyendo herramientas como Ollama, LM Studio y Jan.
  • Para aprovechar al máximo DeepSeek, es clave elegir el modelo adecuado según el hardware disponible y configurarlo correctamente en extensiones como CodeGPT o Cline.

DeepSeek R1 ha emergido como una alternativa potente y gratuita frente a otras soluciones alternativas. Su mejor baza es que permite a los desarrolladores contar con una IA avanzada para la asistencia de código sin depender de servidores en la nube. En este artículo te explicamos cómo usar DeepSeek en Visual Studio Code.

Y es que, gracias a su disponibilidad en versiones optimizadas para ejecución local, es posible su integración sin costes adicionales. Todo lo que hay que hacer es recurrir a herramientas como Ollama, LM Studio y Jan, así como la integración con plugins como CodeGPT y Cline. Te lo contamos todo en los siguientes párrafos:

¿Qué es DeepSeek R1?

Como ya explicamos aquí en su día, DeepSeek R1 es un modelo de lenguaje de código abierto que compite con soluciones comerciales como GPT-4 en tareas de razonamiento lógico, generación de código y resolución de problemas matemáticos. Su principal ventaja es que se puede ejecutar localmente sin depender de servidores externos, proporcionando un alto nivel de privacidad para los desarrolladores.

Contenido exclusivo - Clic Aquí  Google permite analizar archivos con Gemini desde su plan gratuito

Dependiendo del hardware disponible, se pueden utilizar distintas versiones del modelo, desde 1.5B parámetros (para equipos modestos) hasta 70B parámetros (para PCs de alto rendimiento con GPUs avanzadas).

DeepSeek en Visual Studio Code

Métodos para Ejecutar DeepSeek en VSCode

Para lograr el mejor rendimiento con DeepSeek en Visual Studio Code, es fundamental elegir la solución adecuada para ejecutarlo en tu sistema. Existen tres opciones principales:

Opción 1: Usando Ollama

Ollama es una plataforma ligera que permite ejecutar modelos de IA localmente. Sigue estos pasos para instalar y usar DeepSeek con Ollama:

  1. Descargar e instalar Ollama desde su sitio web oficial (ollama.com).
  2. En una terminal, ejecutar: ollama pull deepseek-r1:1.5b (para modelos más livianos) o una variante mayor si el hardware lo permite.
  3. Una vez descargado, Ollama alojará el modelo en http://localhost:11434, haciéndolo accesible para VSCode.

Opción 2: Usando LM Studio

LM Studio es otra alternativa para descargar y gestionar fácilmente este tipo de modelos de lenguaje (y también para usar DeepSeek en Visual Studio Code). Así es como se utiliza:

  1. Primero, descarga LM Studio e instálalo en tu sistema.
  2. Busca y descarga el modelo DeepSeek R1 desde la pestaña Discover.
  3. Carga el modelo y habilita el servidor local para ejecutar DeepSeek en Visual Studio Code.
Contenido exclusivo - Clic Aquí  ¿Cómo se utiliza el reconocimiento de voz en el campo de la inteligencia artificial?

Opción 3: Usando Jan

La tercera opción que recomendamos es Jan, otra alternativa viable para ejecutar modelos de IA localmente. Para usarlo, debes hacer lo siguiente:

  • En primer lugar descarga la versión de Jan correspondiente a tu sistema operativo.
  • Luego descarga DeepSeek R1 desde Hugging Face y cárgalo en Jan.
  • Finalmente, inicia el servidor en http://localhost:1337 y configúralo en VSCode.

Si quieres explorar más sobre cómo usar DeepSeek en diferentes entornos, no dudes en consultar nuestra guía sobre DeepSeek en entornos Windows 11.

deepseek en VS Code

Integración de DeepSeek con Visual Studio Code

Una vez que tienes DeepSeek funcionando localmente, es momento de integrarlo en Visual Studio Code. Para ello, puedes usar extensiones como CodeGPT o Cline.

Configurando CodeGPT

  1. Desde la pestaña Extensiones en VSCode (Ctrl + Shift + X), busca e instala CodeGPT.
  2. Accede a los ajustes de la extensión y selecciona Ollama como proveedor de LLM.
  3. Ingresa la URL del servidor donde se ejecuta DeepSeek localmente.
  4. Selecciona el modelo DeepSeek descargado y guárdalo.

Configurando Cline

Cline es una herramienta más orientada a la ejecución automática de código. Para utilizarla con DeepSeek en Visual Studio Code, sigue estos pasos:

  1. Descarga la extensión Cline en VSCode.
  2. Abre los ajustes y selecciona el proveedor de API (Ollama o Jan).
  3. Ingresa la URL del servidor local donde está ejecutándose DeepSeek.
  4. Elige el modelo de IA y confirma la configuración.
Contenido exclusivo - Clic Aquí  Cómo instalar Copilot en Office 365

Para obtener más información sobre la implementación de DeepSeek, te recomiendo revisar cómo Microsoft integra DeepSeek R1 en Windows Copilot, lo que puede ofrecerte una perspectiva más amplia sobre sus capacidades.

Consejos para Elegir el Modelo Adecuado

El rendimiento de DeepSeek en Virtual Studio Code dependerá en gran medida del modelo elegido y la capacidad de tu hardware. A modo de referencia, vale la pena consultar la siguiente tabla:

Modelo RAM Necesaria GPU Recomendada
1.5B 4 GB Integrada o CPU
7B 8-10 GB GTX 1660 o superior
14B 16 GB+ RTX 3060/3080
70B 40 GB+ RTX 4090

 

Si tu PC tiene poca potencia, puedes optar por modelos más pequeños o versiones cuantizadas para reducir el consumo de memoria.

Como ves, usar DeepSeek en Visual Studio Code nos ofrece una alternativa excelente y gratuita a otros asistentes de código de pago. La posibilidad de ejecutarlo localmente a través de Ollama, LM Studio o Jan, brinda a los desarrolladores laoprtunidad de beneficiarse de una herramienta avanzada sin depender de servicios basados en la nube ni costos mensuales. Si configuras bien tu entorno, tendrás un asistente de IA privado, potente y completamente bajo tu control.

como usar DeepSeek-0
Artículo relacionado:
DeepSeek: Todo lo que necesitas saber sobre la IA gratuita más innovadora

Deja un comentario