- DeepSeek R1 es un modelo de IA gratuito y open-source que puedes integrar en Visual Studio Code como asistente de codificación.
- Existen varias formas de ejecutar DeepSeek localmente sin depender de la nube, incluyendo herramientas como Ollama, LM Studio y Jan.
- Para aprovechar al máximo DeepSeek, es clave elegir el modelo adecuado según el hardware disponible y configurarlo correctamente en extensiones como CodeGPT o Cline.
DeepSeek R1 ha emergido como una alternativa potente y gratuita frente a otras soluciones alternativas. Su mejor baza es que permite a los desarrolladores contar con una IA avanzada para la asistencia de código sin depender de servidores en la nube. En este artículo te explicamos cómo usar DeepSeek en Visual Studio Code.
Y es que, gracias a su disponibilidad en versiones optimizadas para ejecución local, es posible su integración sin costes adicionales. Todo lo que hay que hacer es recurrir a herramientas como Ollama, LM Studio y Jan, así como la integración con plugins como CodeGPT y Cline. Te lo contamos todo en los siguientes párrafos:
¿Qué es DeepSeek R1?
Como ya explicamos aquí en su día, DeepSeek R1 es un modelo de lenguaje de código abierto que compite con soluciones comerciales como GPT-4 en tareas de razonamiento lógico, generación de código y resolución de problemas matemáticos. Su principal ventaja es que se puede ejecutar localmente sin depender de servidores externos, proporcionando un alto nivel de privacidad para los desarrolladores.
Dependiendo del hardware disponible, se pueden utilizar distintas versiones del modelo, desde 1.5B parámetros (para equipos modestos) hasta 70B parámetros (para PCs de alto rendimiento con GPUs avanzadas).
Métodos para Ejecutar DeepSeek en VSCode
Para lograr el mejor rendimiento con DeepSeek en Visual Studio Code, es fundamental elegir la solución adecuada para ejecutarlo en tu sistema. Existen tres opciones principales:
Opción 1: Usando Ollama
Ollama es una plataforma ligera que permite ejecutar modelos de IA localmente. Sigue estos pasos para instalar y usar DeepSeek con Ollama:
- Descargar e instalar Ollama desde su sitio web oficial (ollama.com).
- En una terminal, ejecutar:
ollama pull deepseek-r1:1.5b
(para modelos más livianos) o una variante mayor si el hardware lo permite. - Una vez descargado, Ollama alojará el modelo en
http://localhost:11434
, haciéndolo accesible para VSCode.
Opción 2: Usando LM Studio
LM Studio es otra alternativa para descargar y gestionar fácilmente este tipo de modelos de lenguaje (y también para usar DeepSeek en Visual Studio Code). Así es como se utiliza:
- Primero, descarga LM Studio e instálalo en tu sistema.
- Busca y descarga el modelo DeepSeek R1 desde la pestaña Discover.
- Carga el modelo y habilita el servidor local para ejecutar DeepSeek en Visual Studio Code.
Opción 3: Usando Jan
La tercera opción que recomendamos es Jan, otra alternativa viable para ejecutar modelos de IA localmente. Para usarlo, debes hacer lo siguiente:
- En primer lugar descarga la versión de Jan correspondiente a tu sistema operativo.
- Luego descarga DeepSeek R1 desde Hugging Face y cárgalo en Jan.
- Finalmente, inicia el servidor en
http://localhost:1337
y configúralo en VSCode.
Si quieres explorar más sobre cómo usar DeepSeek en diferentes entornos, no dudes en consultar nuestra guía sobre DeepSeek en entornos Windows 11.
Integración de DeepSeek con Visual Studio Code
Una vez que tienes DeepSeek funcionando localmente, es momento de integrarlo en Visual Studio Code. Para ello, puedes usar extensiones como CodeGPT o Cline.
Configurando CodeGPT
- Desde la pestaña Extensiones en VSCode (Ctrl + Shift + X), busca e instala CodeGPT.
- Accede a los ajustes de la extensión y selecciona Ollama como proveedor de LLM.
- Ingresa la URL del servidor donde se ejecuta DeepSeek localmente.
- Selecciona el modelo DeepSeek descargado y guárdalo.
Configurando Cline
Cline es una herramienta más orientada a la ejecución automática de código. Para utilizarla con DeepSeek en Visual Studio Code, sigue estos pasos:
- Descarga la extensión Cline en VSCode.
- Abre los ajustes y selecciona el proveedor de API (Ollama o Jan).
- Ingresa la URL del servidor local donde está ejecutándose DeepSeek.
- Elige el modelo de IA y confirma la configuración.
Para obtener más información sobre la implementación de DeepSeek, te recomiendo revisar cómo Microsoft integra DeepSeek R1 en Windows Copilot, lo que puede ofrecerte una perspectiva más amplia sobre sus capacidades.
Consejos para Elegir el Modelo Adecuado
El rendimiento de DeepSeek en Virtual Studio Code dependerá en gran medida del modelo elegido y la capacidad de tu hardware. A modo de referencia, vale la pena consultar la siguiente tabla:
Modelo | RAM Necesaria | GPU Recomendada |
---|---|---|
1.5B | 4 GB | Integrada o CPU |
7B | 8-10 GB | GTX 1660 o superior |
14B | 16 GB+ | RTX 3060/3080 |
70B | 40 GB+ | RTX 4090 |
Si tu PC tiene poca potencia, puedes optar por modelos más pequeños o versiones cuantizadas para reducir el consumo de memoria.
Como ves, usar DeepSeek en Visual Studio Code nos ofrece una alternativa excelente y gratuita a otros asistentes de código de pago. La posibilidad de ejecutarlo localmente a través de Ollama, LM Studio o Jan, brinda a los desarrolladores laoprtunidad de beneficiarse de una herramienta avanzada sin depender de servicios basados en la nube ni costos mensuales. Si configuras bien tu entorno, tendrás un asistente de IA privado, potente y completamente bajo tu control.
Redactor especializado en temas de tecnología e internet con más de diez años de experiencia en diferentes medios digitales. He trabajado como editor y creador de contenidos para empresas de comercio electrónico, comunicación, marketing online y publicidad. También he escrito en webs de economía, finanzas y otros sectores. Mi trabajo es también mi pasión. Ahora, a través de mis artículos en Tecnobits, intento explorar todas las novedades y nuevas oportunidades que el mundo de la tecnología nos ofrece día a día para mejorar nuestras vidas.