Sådan bruger du DeepSeek i Visual Studio Code

Sidste ændring: 10/03/2025
Forfatter: Daniel Terrasa

  • DeepSeek R1 er en gratis og open source AI-model, som du kan integrere i Visual Studio Code som en kodningsassistent.
  • Der er flere måder at køre DeepSeek lokalt uden at være afhængig af skyen, herunder værktøjer som Ollama, LM Studio og Jan.
  • For at få mest muligt ud af DeepSeek er det vigtigt at vælge den rigtige model baseret på din tilgængelige hardware og konfigurere den korrekt i udvidelser som CodeGPT eller Cline.
Deepseek i VS-kode

DeepSeek R1 er opstået som et kraftfuldt og gratis alternativ til andre alternative løsninger. Dets bedste aktiv er, at det giver udviklere mulighed for at have en Avanceret AI for kodehjælp uden at være afhængig af cloud-servere. I denne artikel forklarer vi dig Sådan bruger du DeepSeek i Visual Studio Code.

Og det er det takket være dens tilgængelighed i versioner, der er optimeret til lokal udførelse, dets integration er mulig uden ekstra omkostninger. Alt du skal gøre er at ty til værktøjer som f.eks Ollama, LM Studio og Jan, samt integration med plugins som f.eks CodeGPT og Cline. Vi fortæller dig alt i de følgende afsnit:

Hvad er DeepSeek R1?

Som vi allerede har forklaret her, DeepSeek R1 er en open source sprogmodel der konkurrerer med kommercielle løsninger som f.eks GPT-4 i logiske ræsonnementopgaver, kodegenerering og matematisk problemløsning. Dens største fordel er det kan køres lokalt uden at være afhængig af eksterne servere, hvilket giver udviklere et højt niveau af privatliv.

Eksklusivt indhold - Klik her  Sådan bruger du GPT-4.5 Orion: Funktioner, forbedringer og tilgængelighed

Afhængigt af tilgængelig hardware kan forskellige versioner af modellen bruges, fra 1.5B parametre (for beskedne computere) til 70B parametre (for højtydende pc'er med avancerede GPU'er).

DeepSeek i Visual Studio Code

Metoder til at køre DeepSeek i VSCode

For at opnå den bedste præstation med DeepSeek en Visual Studio Code, er det vigtigt at vælge den rigtige løsning til at køre det på dit system. Der er tre hovedmuligheder:

Mulighed 1: Brug af Ollama

Ollama Det er en letvægtsplatform, der giver dig mulighed for at køre AI-modeller lokalt. Følg disse trin for at installere og bruge DeepSeek med Ollama:

  1. Download og installer Ollama fra dens officielle hjemmeside (ollama.com).
  2. Kør i en terminal: ollama pull deepseek-r1:1.5b (til lettere modeller) eller en større variant, hvis hardwaren tillader det.
  3. Når den er downloadet, vil Ollama være vært for modellen http://localhost:11434, hvilket gør det tilgængeligt for VSCode.

Mulighed 2: Brug af LM Studio

LM Studio er et andet alternativ til nemt at downloade og administrere disse typer sprogmodeller (og også at bruge DeepSeek i Visual Studio Code). Sådan bruger du det:

  1. Først, download LM Studio og installer det på dit system.
  2. Søg og download modellen DeepSeek R1 fra fanen Opdag.
  3. Upload modellen og aktiver den lokale server til at køre DeepSeek i Visual Studio Code.
Eksklusivt indhold - Klik her  Funktioner af kunstig intelligens 

Mulighed 3: Brug af Jan

Den tredje mulighed, vi anbefaler, er Jan, et andet levedygtigt alternativ til at køre AI-modeller lokalt. For at bruge det skal du gøre følgende:

  • Download først versionen af Jan svarende til dit operativsystem.
  • Så download DeepSeek R1 fra Hugging Face og indlæs den i Jan.
  • Til sidst skal du starte serveren ind http://localhost:1337 og sæt det op i VSCode.

Hvis du vil udforske mere om, hvordan du bruger DeepSeek i forskellige miljøer, er du velkommen til at tjekke vores guide på DeepSeek i Windows 11-miljøer.

Deepseek i VS-kode

DeepSeek Integration med Visual Studio Code

når du har DeepSeek arbejder lokalt, er det tid til at integrere det i Visual Studio Code. For at gøre dette kan du bruge udvidelser som f.eks CodeGPT o Cline.

Konfiguration af CodeGPT

  1. Fra fanen Udvidelser I VSCode (Ctrl + Shift + X), søg og installer CodeGPT.
  2. Få adgang til udvidelsesindstillingerne, og vælg Ollama som LLM-udbyder.
  3. Indtast URL'en på den server, hvor den kører DeepSeek lokalt.
  4. Vælg den downloadede DeepSeek-model, og gem den.

Konfiguration af Cline

Cline Det er et værktøj mere orienteret mod automatisk udførelse af kode. Følg disse trin for at bruge det med DeepSeek i Visual Studio Code:

  1. Download udvidelsen Cline i VSCode.
  2. Åbn indstillingerne og vælg API-udbyderen (Ollama eller Jan).
  3. Indtast URL'en på den lokale server, hvor den kører DeepSeek.
  4. Vælg AI-modellen og bekræft indstillingerne.
Eksklusivt indhold - Klik her  Californien vedtager SB 243 for at regulere AI-chatbots og beskytte mindreårige

For mere information om implementeringen af ​​DeepSeek, anbefaler jeg, at du tjekker ud Hvordan Microsoft integrerer DeepSeek R1 i Windows Copilot, som kan give dig et bredere perspektiv på deres muligheder.

Tips til at vælge den rigtige model

El DeepSeek ydeevne i Virtual Studio Code vil i høj grad afhænge af den valgte model og din hardwares muligheder. Til reference er følgende tabel værd at konsultere:

Model Påkrævet RAM Anbefalet GPU
1.5B 4 DK Integreret eller CPU
7B 8 10-GB GTX 1660 eller højere
14B 16 GB + RTX 3060/3080
70B 40 GB + RTX 4090

 

Hvis din pc er understrøm, kan du vælge mindre modeller eller kvantificerede versioner for at reducere hukommelsesforbruget.

Som du kan se, giver brug af DeepSeek i Visual Studio Code os et fremragende, gratis alternativ til andre betalte kodeassistenter. Muligheden for at køre det lokalt igennem Ollama, LM Studio o Jan, giver udviklere mulighed for at drage fordel af et avanceret værktøj uden at være afhængig af cloud-baserede tjenester eller månedlige omkostninger. Hvis du konfigurerer dit miljø godt, har du en privat, kraftfuld AI-assistent helt under din kontrol.

hvordan man bruger DeepSeek-0
relateret artikel:
DeepSeek: Alt hvad du behøver at vide om den mest innovative gratis AI