Hvordan bruke DeepSeek i Visual Studio Code

Siste oppdatering: 10/03/2025
Forfatter: Daniel Terrasa

  • DeepSeek R1 er en gratis og åpen kildekode AI-modell som du kan integrere i Visual Studio Code som en kodeassistent.
  • Det er flere måter å kjøre DeepSeek lokalt uten å stole på skyen, inkludert verktøy som Ollama, LM Studio og Jan.
  • For å få mest mulig ut av DeepSeek, er det nøkkelen til å velge riktig modell basert på tilgjengelig maskinvare og konfigurere den riktig i utvidelser som CodeGPT eller Cline.
Deepseek i VS-kode

DeepSeek R1 har dukket opp som et kraftig og gratis alternativ til andre alternative løsninger. Dens beste fordel er at den lar utviklere ha en Avansert AI for kodehjelp uten å stole på skyservere. I denne artikkelen forklarer vi deg Hvordan bruke DeepSeek i Visual Studio Code.

Og det er det, takket være tilgjengeligheten i versjoner optimalisert for lokal utførelse, er integreringen mulig uten ekstra kostnader. Alt du trenger å gjøre er å ty til verktøy som Ollama, LM Studio og Jan, samt integrasjon med plugins som f.eks CodeGPT og Cline. Vi forteller deg alt i følgende avsnitt:

Hva er DeepSeek R1?

Som vi allerede har forklart her, DeepSeek R1 er en språkmodell med åpen kildekode som konkurrerer med kommersielle løsninger som f.eks GPT-4 i logiske resonneringsoppgaver, kodegenerering og matematisk problemløsning. Dens største fordel er det kan kjøres lokalt uten å stole på eksterne servere, som gir utviklere et høyt personvernnivå.

Eksklusivt innhold - Klikk her  Slik bruker du GPT-4.5 Orion: Funksjoner, forbedringer og tilgjengelighet

Avhengig av tilgjengelig maskinvare kan ulike versjoner av modellen brukes, fra 1.5B parametere (for beskjedne datamaskiner) til 70B parametere (for høyytelses PCer med avanserte GPUer).

DeepSeek i Visual Studio Code

Metoder for å kjøre DeepSeek i VSCode

For å oppnå best ytelse med DeepSeek en Visual Studio Code, er det viktig å velge den riktige løsningen for å kjøre den på systemet ditt. Det er tre hovedalternativer:

Alternativ 1: Bruke Ollama

Ollama Det er en lett plattform som lar deg kjøre AI-modeller lokalt. Følg disse trinnene for å installere og bruke DeepSeek med Ollama:

  1. Last ned og installer Ollama fra den offisielle nettsiden (ollama.com).
  2. I en terminal, kjør: ollama pull deepseek-r1:1.5b (for lettere modeller) eller en større variant hvis maskinvaren tillater det.
  3. Når den er lastet ned, vil Ollama være vert for modellen http://localhost:11434, noe som gjør den tilgjengelig for VSCode.

Alternativ 2: Bruke LM Studio

LM Studio er et annet alternativ for enkelt å laste ned og administrere disse typer språkmodeller (og også å bruke DeepSeek i Visual Studio Code). Slik bruker du det:

  1. Først, last ned LM Studio og installer den på systemet ditt.
  2. Søk og last ned modellen DeepSeek R1 fra fanen Utforsk.
  3. Last opp modellen og aktiver den lokale serveren til å kjøre DeepSeek i Visual Studio Code.
Eksklusivt innhold - Klikk her  Kjennetegn ved kunstig intelligens 

Alternativ 3: Bruke Jan

Det tredje alternativet vi anbefaler er jan, et annet levedyktig alternativ for å kjøre AI-modeller lokalt. For å bruke den må du gjøre følgende:

  • Last først ned versjonen av jan samsvarer med ditt operativsystem.
  • Last deretter ned DeepSeek R1 fra Hugging Face og last den inn i januar.
  • Til slutt, start serveren inn http://localhost:1337 og sett den opp i VSCode.

Hvis du vil utforske mer om hvordan du bruker DeepSeek i forskjellige miljøer, kan du gjerne sjekke ut vår guide på DeepSeek i Windows 11-miljøer.

Deepseek i VS-kode

DeepSeek-integrasjon med Visual Studio Code

Når du har DeepSeek arbeider lokalt, er det på tide å integrere det i Visual Studio Code. For å gjøre dette kan du bruke utvidelser som CodeGPT o Cline.

Konfigurerer CodeGPT

  1. Fra fanen Utvidelser I VSCode (Ctrl + Shift + X), søk og installer CodeGPT.
  2. Få tilgang til utvidelsesinnstillingene og velg Ollama som LLM-leverandør.
  3. Skriv inn URL-en til serveren der den kjører DeepSeek lokalt.
  4. Velg den nedlastede DeepSeek-modellen og lagre den.

Konfigurere Cline

Cline Det er et verktøy mer orientert mot automatisk utførelse av kode. For å bruke den med DeepSeek i Visual Studio Code, følg disse trinnene:

  1. Last ned utvidelsen Cline i VSCode.
  2. Åpne innstillingene og velg API-leverandøren (Ollama eller Jan).
  3. Skriv inn URL-en til den lokale serveren der den kjører DeepSeek.
  4. Velg AI-modellen og bekreft innstillingene.
Eksklusivt innhold - Klikk her  California vedtar SB 243 for å regulere AI-chatboter og beskytte mindreårige

For mer informasjon om implementeringen av DeepSeek, anbefaler jeg at du sjekker ut Hvordan Microsoft integrerer DeepSeek R1 i Windows Copilot, som kan gi deg et bredere perspektiv på deres evner.

Tips for å velge riktig modell

El DeepSeek-ytelse i Virtual Studio Code vil i stor grad avhenge av den valgte modellen og egenskapene til maskinvaren din. For referanse er følgende tabell verdt å konsultere:

Model Nødvendig RAM Anbefalt GPU
1.5B 4 GB Integrert eller CPU
7B 8 10-NO GTX 1660 eller høyere
14B 16 GB + RTX 3060/3080
70B 40 GB + RTX 4090

 

Hvis PC-en din har understrøm, kan du velge mindre modeller eller kvantiserte versjoner for å redusere minneforbruket.

Som du kan se, gir bruk av DeepSeek i Visual Studio Code oss et utmerket, gratis alternativ til andre betalte kodeassistenter. Muligheten for å kjøre den lokalt gjennom Ollama, LM Studio o jan, gir utviklere muligheten til å dra nytte av et avansert verktøy uten å stole på skybaserte tjenester eller månedlige kostnader. Hvis du setter opp miljøet ditt godt, vil du ha en privat, kraftig AI-assistent helt under din kontroll.

hvordan du bruker DeepSeek-0
Relatert artikkel:
DeepSeek: Alt du trenger å vite om den mest innovative gratis AI