- DeepSeek R1 er en gratis og open source AI-model, som du kan integrere i Visual Studio Code som en kodningsassistent.
- Der er flere måder at køre DeepSeek lokalt uden at være afhængig af skyen, herunder værktøjer som Ollama, LM Studio og Jan.
- For at få mest muligt ud af DeepSeek er det vigtigt at vælge den rigtige model baseret på din tilgængelige hardware og konfigurere den korrekt i udvidelser som CodeGPT eller Cline.
DeepSeek R1 er opstået som et kraftfuldt og gratis alternativ til andre alternative løsninger. Dets bedste aktiv er, at det giver udviklere mulighed for at have en Avanceret AI for kodehjælp uden at være afhængig af cloud-servere. I denne artikel forklarer vi dig Sådan bruger du DeepSeek i Visual Studio Code.
Og det er det takket være dens tilgængelighed i versioner, der er optimeret til lokal udførelse, dets integration er mulig uden ekstra omkostninger. Alt du skal gøre er at ty til værktøjer som f.eks Ollama, LM Studio og Jan, samt integration med plugins som f.eks CodeGPT og Cline. Vi fortæller dig alt i de følgende afsnit:
Hvad er DeepSeek R1?
Som vi allerede har forklaret her, DeepSeek R1 er en open source sprogmodel der konkurrerer med kommercielle løsninger som f.eks GPT-4 i logiske ræsonnementopgaver, kodegenerering og matematisk problemløsning. Dens største fordel er det kan køres lokalt uden at være afhængig af eksterne servere, hvilket giver udviklere et højt niveau af privatliv.
Afhængigt af tilgængelig hardware kan forskellige versioner af modellen bruges, fra 1.5B parametre (for beskedne computere) til 70B parametre (for højtydende pc'er med avancerede GPU'er).
Metoder til at køre DeepSeek i VSCode
For at opnå den bedste præstation med DeepSeek en Visual Studio Code, er det vigtigt at vælge den rigtige løsning til at køre det på dit system. Der er tre hovedmuligheder:
Mulighed 1: Brug af Ollama
Ollama Det er en letvægtsplatform, der giver dig mulighed for at køre AI-modeller lokalt. Følg disse trin for at installere og bruge DeepSeek med Ollama:
- Download og installer Ollama fra dens officielle hjemmeside (ollama.com).
- Kør i en terminal:
ollama pull deepseek-r1:1.5b(til lettere modeller) eller en større variant, hvis hardwaren tillader det. - Når den er downloadet, vil Ollama være vært for modellen
http://localhost:11434, hvilket gør det tilgængeligt for VSCode.
Mulighed 2: Brug af LM Studio
LM Studio er et andet alternativ til nemt at downloade og administrere disse typer sprogmodeller (og også at bruge DeepSeek i Visual Studio Code). Sådan bruger du det:
- Først, download LM Studio og installer det på dit system.
- Søg og download modellen DeepSeek R1 fra fanen Opdag.
- Upload modellen og aktiver den lokale server til at køre DeepSeek i Visual Studio Code.
Mulighed 3: Brug af Jan
Den tredje mulighed, vi anbefaler, er Jan, et andet levedygtigt alternativ til at køre AI-modeller lokalt. For at bruge det skal du gøre følgende:
- Download først versionen af Jan svarende til dit operativsystem.
- Så download DeepSeek R1 fra Hugging Face og indlæs den i Jan.
- Til sidst skal du starte serveren ind
http://localhost:1337og sæt det op i VSCode.
Hvis du vil udforske mere om, hvordan du bruger DeepSeek i forskellige miljøer, er du velkommen til at tjekke vores guide på DeepSeek i Windows 11-miljøer.

DeepSeek Integration med Visual Studio Code
når du har DeepSeek arbejder lokalt, er det tid til at integrere det i Visual Studio Code. For at gøre dette kan du bruge udvidelser som f.eks CodeGPT o Cline.
Konfiguration af CodeGPT
- Fra fanen Udvidelser I VSCode (Ctrl + Shift + X), søg og installer CodeGPT.
- Få adgang til udvidelsesindstillingerne, og vælg Ollama som LLM-udbyder.
- Indtast URL'en på den server, hvor den kører DeepSeek lokalt.
- Vælg den downloadede DeepSeek-model, og gem den.
Konfiguration af Cline
Cline Det er et værktøj mere orienteret mod automatisk udførelse af kode. Følg disse trin for at bruge det med DeepSeek i Visual Studio Code:
- Download udvidelsen Cline i VSCode.
- Åbn indstillingerne og vælg API-udbyderen (Ollama eller Jan).
- Indtast URL'en på den lokale server, hvor den kører DeepSeek.
- Vælg AI-modellen og bekræft indstillingerne.
For mere information om implementeringen af DeepSeek, anbefaler jeg, at du tjekker ud Hvordan Microsoft integrerer DeepSeek R1 i Windows Copilot, som kan give dig et bredere perspektiv på deres muligheder.
Tips til at vælge den rigtige model
El DeepSeek ydeevne i Virtual Studio Code vil i høj grad afhænge af den valgte model og din hardwares muligheder. Til reference er følgende tabel værd at konsultere:
| Model | Påkrævet RAM | Anbefalet GPU |
|---|---|---|
| 1.5B | 4 DK | Integreret eller CPU |
| 7B | 8 10-GB | GTX 1660 eller højere |
| 14B | 16 GB + | RTX 3060/3080 |
| 70B | 40 GB + | RTX 4090 |
Hvis din pc er understrøm, kan du vælge mindre modeller eller kvantificerede versioner for at reducere hukommelsesforbruget.
Som du kan se, giver brug af DeepSeek i Visual Studio Code os et fremragende, gratis alternativ til andre betalte kodeassistenter. Muligheden for at køre det lokalt igennem Ollama, LM Studio o Jan, giver udviklere mulighed for at drage fordel af et avanceret værktøj uden at være afhængig af cloud-baserede tjenester eller månedlige omkostninger. Hvis du konfigurerer dit miljø godt, har du en privat, kraftfuld AI-assistent helt under din kontrol.
Redaktør med speciale i teknologi og internetspørgsmål med mere end ti års erfaring i forskellige digitale medier. Jeg har arbejdet som redaktør og indholdsskaber for e-handel, kommunikation, online marketing og annoncevirksomheder. Jeg har også skrevet på økonomi, finans og andre sektorers hjemmesider. Mit arbejde er også min passion. Nu gennem mine artikler i Tecnobits, Jeg forsøger at udforske alle de nyheder og nye muligheder, som teknologiens verden tilbyder os hver dag for at forbedre vores liv.
