- DeepSeek R1 är en gratis AI-modell med öppen källkod som du kan integrera i Visual Studio Code som en kodningsassistent.
- Det finns flera sätt att köra DeepSeek lokalt utan att förlita sig på molnet, inklusive verktyg som Ollama, LM Studio och Jan.
- För att få ut det mesta av DeepSeek är det viktigt att välja rätt modell baserat på din tillgängliga hårdvara och konfigurera den korrekt i tillägg som CodeGPT eller Cline.
DeepSeek R1 har dykt upp som ett kraftfullt och gratis alternativ till andra alternativa lösningar. Dess bästa tillgång är att den tillåter utvecklare att ha en Avancerad AI för kodhjälp utan att förlita sig på molnservrar. I den här artikeln förklarar vi för dig Hur man använder DeepSeek i Visual Studio Code.
Och det är det, tack vare dess tillgänglighet i versioner optimerade för lokalt utförande, dess integration är möjlig utan extra kostnader. Allt du behöver göra är att ta till verktyg som Ollama, LM Studio och Jan, samt integration med plugins som t.ex CodeGPT och Cline. Vi berättar allt i följande stycken:
Vad är DeepSeek R1?
Som vi redan förklarat här, DeepSeek R1 är en språkmodell med öppen källkod som konkurrerar med kommersiella lösningar som t.ex GPT-4 i logiska resonemangsuppgifter, kodgenerering och matematisk problemlösning. Dess främsta fördel är att kan köras lokalt utan att förlita sig på externa servrar, vilket ger utvecklare en hög integritetsnivå.
Beroende på tillgänglig hårdvara kan olika versioner av modellen användas, från 1.5B parametrar (för blygsamma datorer) till 70B parametrar (för högpresterande datorer med avancerade GPU).
Metoder för att köra DeepSeek i VSCode
För att uppnå bästa prestanda med DeepSeek en Visual Studio Code, är det viktigt att välja rätt lösning för att köra det på ditt system. Det finns tre huvudalternativ:
Alternativ 1: Använd Ollama
Ollama Det är en lätt plattform som låter dig köra AI-modeller lokalt. Följ dessa steg för att installera och använda DeepSeek med Ollama:
- Ladda ner och installera Ollama från dess officiella hemsida (ollama.com).
- I en terminal, kör:
ollama pull deepseek-r1:1.5b(för lättare modeller) eller en större variant om hårdvaran tillåter det. - När den har laddats ner kommer Ollama att vara värd för modellen
http://localhost:11434, vilket gör den tillgänglig för VSCode.
Alternativ 2: Använda LM Studio
LM Studio är ett annat alternativ för att enkelt ladda ner och hantera dessa typer av språkmodeller (och även att använda DeepSeek i Visual Studio Code). Så här använder du det:
- Först, ladda ner LM Studio och installera det på ditt system.
- Sök och ladda ner modellen DeepSeek R1 från fliken Upptäck.
- Ladda upp modellen och låt den lokala servern köra DeepSeek i Visual Studio Code.
Alternativ 3: Använd jan
Det tredje alternativet vi rekommenderar är jan, ett annat gångbart alternativ för att köra AI-modeller lokalt. För att använda den måste du göra följande:
- Ladda först ner versionen av jan som motsvarar ditt operativsystem.
- Ladda sedan ner DeepSeek R1 från Hugging Face och ladda den i Jan.
- Slutligen, starta servern in
http://localhost:1337och ställ in den i VSCode.
Om du vill utforska mer om hur du använder DeepSeek i olika miljöer, kolla gärna in vår guide på DeepSeek i Windows 11-miljöer.

DeepSeek Integration med Visual Studio Code
när du har DeepSeek arbetar lokalt är det dags att integrera det i Visual Studio Code. För att göra detta kan du använda tillägg som CodeGPT o Cline.
Konfigurera CodeGPT
- Från fliken Förlängningar I VSCode (Ctrl + Shift + X), sök och installera CodeGPT.
- Öppna tilläggsinställningarna och välj Ollama som LLM-leverantör.
- Ange URL:en till servern där den körs DeepSeek lokalt.
- Välj den nedladdade DeepSeek-modellen och spara den.
Konfigurera Cline
Cline Det är ett verktyg mer inriktat på automatisk exekvering av kod. För att använda den med DeepSeek i Visual Studio Code, följ dessa steg:
- Ladda ner tillägget Cline i VSCode.
- Öppna inställningarna och välj API-leverantör (Ollama eller Jan).
- Ange URL:en till den lokala server där den körs DeepSeek.
- Välj AI-modell och bekräfta inställningarna.
För mer information om implementeringen av DeepSeek rekommenderar jag att du kollar in Hur Microsoft integrerar DeepSeek R1 i Windows Copilot, vilket kan ge dig ett bredare perspektiv på deras kapacitet.
Tips för att välja rätt modell
El DeepSeek-prestanda i Virtual Studio Code kommer till stor del att bero på den valda modellen och kapaciteten hos din hårdvara. Som referens är följande tabell värd att konsultera:
| Modell | Krävs RAM | Rekommenderad GPU |
|---|---|---|
| 1.5B | 4 GB | Integrerad eller CPU |
| 7B | 8-10 GB | GTX 1660 eller högre |
| 14B | 16 GB + | RTX 3060/3080 |
| 70B | 40 GB + | RTX 4090 |
Om din dator är underdriven kan du välja mindre modeller eller kvantiserade versioner för att minska minnesförbrukningen.
Som du kan se, att använda DeepSeek i Visual Studio Code erbjuder oss ett utmärkt, gratis alternativ till andra betalda kodassistenter. Möjlighet att köra den lokalt igenom Ollama, LM Studio o jan, ger utvecklare möjlighet att dra nytta av ett avancerat verktyg utan att förlita sig på molnbaserade tjänster eller månatliga kostnader. Om du ställer in din miljö väl har du en privat, kraftfull AI-assistent helt under din kontroll.
Redaktör specialiserad på teknik och internetfrågor med mer än tio års erfarenhet av olika digitala medier. Jag har arbetat som redaktör och innehållsskapare för e-handel, kommunikation, onlinemarknadsföring och reklamföretag. Jag har också skrivit på ekonomi, finans och andra sektorers webbplatser. Mitt arbete är också min passion. Nu genom mina artiklar i Tecnobits, Jag försöker utforska alla nyheter och nya möjligheter som teknikvärlden erbjuder oss varje dag för att förbättra våra liv.
