Hur man använder DeepSeek i Visual Studio Code

Senaste uppdateringen: 10/03/2025
Författare: Daniel Terrasa

  • DeepSeek R1 är en gratis AI-modell med öppen källkod som du kan integrera i Visual Studio Code som en kodningsassistent.
  • Det finns flera sätt att köra DeepSeek lokalt utan att förlita sig på molnet, inklusive verktyg som Ollama, LM Studio och Jan.
  • För att få ut det mesta av DeepSeek är det viktigt att välja rätt modell baserat på din tillgängliga hårdvara och konfigurera den korrekt i tillägg som CodeGPT eller Cline.
Deepseek i VS Code

DeepSeek R1 har dykt upp som ett kraftfullt och gratis alternativ till andra alternativa lösningar. Dess bästa tillgång är att den tillåter utvecklare att ha en Avancerad AI för kodhjälp utan att förlita sig på molnservrar. I den här artikeln förklarar vi för dig Hur man använder DeepSeek i Visual Studio Code.

Och det är det, tack vare dess tillgänglighet i versioner optimerade för lokalt utförande, dess integration är möjlig utan extra kostnader. Allt du behöver göra är att ta till verktyg som Ollama, LM Studio och Jan, samt integration med plugins som t.ex CodeGPT och Cline. Vi berättar allt i följande stycken:

Vad är DeepSeek R1?

Som vi redan förklarat här, DeepSeek R1 är en språkmodell med öppen källkod som konkurrerar med kommersiella lösningar som t.ex GPT-4 i logiska resonemangsuppgifter, kodgenerering och matematisk problemlösning. Dess främsta fördel är att kan köras lokalt utan att förlita sig på externa servrar, vilket ger utvecklare en hög integritetsnivå.

Exklusivt innehåll - Klicka här  NVIDIA Fugatto: Den innovativa AI för att förvandla framtiden för ljud

Beroende på tillgänglig hårdvara kan olika versioner av modellen användas, från 1.5B parametrar (för blygsamma datorer) till 70B parametrar (för högpresterande datorer med avancerade GPU).

DeepSeek i Visual Studio Code

Metoder för att köra DeepSeek i VSCode

För att uppnå bästa prestanda med DeepSeek en Visual Studio Code, är det viktigt att välja rätt lösning för att köra det på ditt system. Det finns tre huvudalternativ:

Alternativ 1: Använd Ollama

Ollama Det är en lätt plattform som låter dig köra AI-modeller lokalt. Följ dessa steg för att installera och använda DeepSeek med Ollama:

  1. Ladda ner och installera Ollama från dess officiella hemsida (ollama.com).
  2. I en terminal, kör: ollama pull deepseek-r1:1.5b (för lättare modeller) eller en större variant om hårdvaran tillåter det.
  3. När den har laddats ner kommer Ollama att vara värd för modellen http://localhost:11434, vilket gör den tillgänglig för VSCode.

Alternativ 2: Använda LM Studio

LM Studio är ett annat alternativ för att enkelt ladda ner och hantera dessa typer av språkmodeller (och även att använda DeepSeek i Visual Studio Code). Så här använder du det:

  1. Först, ladda ner LM Studio och installera det på ditt system.
  2. Sök och ladda ner modellen DeepSeek R1 från fliken Upptäck.
  3. Ladda upp modellen och låt den lokala servern köra DeepSeek i Visual Studio Code.
Exklusivt innehåll - Klicka här  Mico vs Copilot på Windows 11: Allt du behöver veta

Alternativ 3: Använd jan

Det tredje alternativet vi rekommenderar är jan, ett annat gångbart alternativ för att köra AI-modeller lokalt. För att använda den måste du göra följande:

  • Ladda först ner versionen av jan som motsvarar ditt operativsystem.
  • Ladda sedan ner DeepSeek R1 från Hugging Face och ladda den i Jan.
  • Slutligen, starta servern in http://localhost:1337 och ställ in den i VSCode.

Om du vill utforska mer om hur du använder DeepSeek i olika miljöer, kolla gärna in vår guide på DeepSeek i Windows 11-miljöer.

Deepseek i VS Code

DeepSeek Integration med Visual Studio Code

när du har DeepSeek arbetar lokalt är det dags att integrera det i Visual Studio Code. För att göra detta kan du använda tillägg som CodeGPT o Cline.

Konfigurera CodeGPT

  1. Från fliken Förlängningar I VSCode (Ctrl + Shift + X), sök och installera CodeGPT.
  2. Öppna tilläggsinställningarna och välj Ollama som LLM-leverantör.
  3. Ange URL:en till servern där den körs DeepSeek lokalt.
  4. Välj den nedladdade DeepSeek-modellen och spara den.

Konfigurera Cline

Cline Det är ett verktyg mer inriktat på automatisk exekvering av kod. För att använda den med DeepSeek i Visual Studio Code, följ dessa steg:

  1. Ladda ner tillägget Cline i VSCode.
  2. Öppna inställningarna och välj API-leverantör (Ollama eller Jan).
  3. Ange URL:en till den lokala server där den körs DeepSeek.
  4. Välj AI-modell och bekräfta inställningarna.
Exklusivt innehåll - Klicka här  Hur man använder Google Gemini för att veta vilka platser man ska besöka i en stad

För mer information om implementeringen av DeepSeek rekommenderar jag att du kollar in Hur Microsoft integrerar DeepSeek R1 i Windows Copilot, vilket kan ge dig ett bredare perspektiv på deras kapacitet.

Tips för att välja rätt modell

El DeepSeek-prestanda i Virtual Studio Code kommer till stor del att bero på den valda modellen och kapaciteten hos din hårdvara. Som referens är följande tabell värd att konsultera:

Modell Krävs RAM Rekommenderad GPU
1.5B 4 GB Integrerad eller CPU
7B 8-10 GB GTX 1660 eller högre
14B 16 GB + RTX 3060/3080
70B 40 GB + RTX 4090

 

Om din dator är underdriven kan du välja mindre modeller eller kvantiserade versioner för att minska minnesförbrukningen.

Som du kan se, att använda DeepSeek i Visual Studio Code erbjuder oss ett utmärkt, gratis alternativ till andra betalda kodassistenter. Möjlighet att köra den lokalt igenom Ollama, LM Studio o jan, ger utvecklare möjlighet att dra nytta av ett avancerat verktyg utan att förlita sig på molnbaserade tjänster eller månatliga kostnader. Om du ställer in din miljö väl har du en privat, kraftfull AI-assistent helt under din kontroll.

hur man använder DeepSeek-0
Relaterad artikel:
DeepSeek: Allt du behöver veta om den mest innovativa gratis AI