- DeepSeek R1 je brezplačen in odprtokodni model AI, ki ga lahko integrirate v Visual Studio Code kot pomočnika pri kodiranju.
- Obstaja več načinov za lokalno izvajanje DeepSeek brez zanašanja na oblak, vključno z orodji, kot so Ollama, LM Studio in Jan.
- Če želite kar najbolje izkoristiti DeepSeek, je ključnega pomena, da izberete pravi model glede na razpoložljivo strojno opremo in ga pravilno konfigurirate v razširitvah, kot sta CodeGPT ali Cline.
DeepSeek R1 se je pojavila kot močna in brezplačna alternativa drugim alternativnim rešitvam. Njegova najboljša prednost je, da razvijalcem omogoča, da imajo Napredna umetna inteligenca za pomoč pri kodiranju brez zanašanja na strežnike v oblaku. V tem članku vam razlagamo Kako uporabljati DeepSeek v Visual Studio Code.
In to je, zahvaljujoč njegovi razpoložljivosti v različicah, optimiziranih za lokalna izvedba, je njegova integracija mogoča brez dodatnih stroškov. Vse kar morate storiti je, da uporabite orodja, kot je Ollama, LM Studio in Jan, kot tudi integracija z vtičniki, kot je npr CodeGPT in Cline. Vse vam povemo v naslednjih odstavkih:
Kaj je DeepSeek R1?
Kot smo že pojasnili tukaj, DeepSeek R1 to je odprtokodni jezikovni model ki tekmuje s komercialnimi rešitvami, kot je npr GPT-4 pri nalogah logičnega sklepanja, ustvarjanju kode in reševanju matematičnih problemov. Njegova glavna prednost je, da se lahko izvaja lokalno brez zanašanja na zunanje strežnike, ki razvijalcem zagotavlja visoko raven zasebnosti.
Glede na razpoložljivo strojno opremo se lahko uporabljajo različne različice modela, od parametrov 1.5B (za skromnejše računalnike) do parametrov 70B (za visoko zmogljive osebne računalnike z naprednimi grafičnimi procesorji).
Metode za zagon DeepSeek v VSCode
Da bi dosegli najboljše rezultate z Globoko iskanje en Koda Visual Studia, je bistveno, da izberete pravo rešitev za izvajanje v vašem sistemu. Obstajajo tri glavne možnosti:
Možnost 1: Uporaba Ollame
Ollama Je lahka platforma, ki vam omogoča lokalno izvajanje modelov AI. Za namestitev in uporabo DeepSeek z Ollamo sledite tem korakom:
- Prenesite in namestite Ollamo s svoje uradne spletne strani (ollama.com).
- V terminalu zaženite:
ollama pull deepseek-r1:1.5b(za lažje modele) ali večja varianta, če strojna oprema to omogoča. - Po prenosu bo Ollama gostila model
http://localhost:11434, zaradi česar je dostopen za VSCode.
Možnost 2: Uporaba LM Studio
LM Studio je še ena alternativa za preprost prenos in upravljanje teh vrst jezikovnih modelov (in tudi za uporabo DeepSeek v Visual Studio Code). Uporabite ga tako:
- Najprej prenesite LM Studio in ga namestite v svoj sistem.
- Poiščite in prenesite model DeepSeek R1 z zavihka Odkrijte.
- Naložite model in omogočite lokalnemu strežniku za zagon DeepSeek v Visual Studio Code.
3. možnost: uporaba Jan
Tretja možnost, ki jo priporočamo, je Jan, še ena izvedljiva alternativa za lokalno izvajanje modelov AI. Če ga želite uporabiti, morate narediti naslednje:
- Najprej prenesite različico Jan ki ustreza vašemu operacijskemu sistemu.
- Nato prenesite DeepSeek R1 iz Hugging Face in ga naložite v Jan.
- Končno zaženite strežnik
http://localhost:1337in ga nastavite v VSCode.
Če želite raziskati več o tem, kako uporabljati DeepSeek v različnih okoljih, si oglejte naš vodnik na DeepSeek v okoljih Windows 11.

Integracija DeepSeek s kodo Visual Studio
Ko enkrat Globoko iskanje deluje lokalno, čas je, da ga vključite v Koda Visual Studia. Če želite to narediti, lahko uporabite razširitve, kot je KodaGPT o Cline.
Konfiguriranje CodeGPT
- Z zavihka Razširitve V VSCode (Ctrl + Shift + X) poiščite in namestite KodaGPT.
- Odprite nastavitve razširitve in izberite Ollama kot LLM ponudnik.
- Vnesite URL strežnika, na katerem se izvaja Globoko iskanje lokalno.
- Izberite preneseni model DeepSeek in ga shranite.
Konfiguriranje Cline
Cline Je orodje, ki je bolj usmerjeno v samodejno izvajanje kode. Če ga želite uporabiti z DeepSeek v Visual Studio Code, sledite tem korakom:
- Prenesite razširitev Cline v VSCode.
- Odprite nastavitve in izberite ponudnika API (Ollama ali Jan).
- Vnesite URL lokalnega strežnika, na katerem se izvaja Globoko iskanje.
- Izberite model AI in potrdite nastavitve.
Za več informacij o izvajanju DeepSeek priporočam, da si ogledate Kako Microsoft integrira DeepSeek R1 v Windows Copilot, ki vam lahko ponudi širši pogled na njihove zmožnosti.
Nasveti za izbiro pravega modela
El Zmogljivost DeepSeek v kodi Virtual Studio bo v veliki meri odvisna od izbranega modela in zmogljivosti vaše strojne opreme. Za referenco si je vredno ogledati naslednjo tabelo:
| Model | Potreben RAM | Priporočen GPE |
|---|---|---|
| 1.5B | 4 GB | Integriran ali CPU |
| 7B | 8–10 GB | GTX 1660 ali novejši |
| 14B | 16 GB+ | RTX 3060/3080 |
| 70B | 40 GB+ | RTX 4090 |
Če je vaš računalnik premalo zmogljiv, se lahko odločite za manjše modele ali kvantizirane različice, da zmanjšate porabo pomnilnika.
Kot lahko vidite, nam uporaba DeepSeek v Visual Studio Code ponuja odlično, brezplačno alternativo drugim plačljivim pomočnikom kode. Možnost lokalnega izvajanja Ollama, LM Studio o Jan, daje razvijalcem priložnost, da izkoristijo prednosti naprednega orodja, ne da bi se zanašali na storitve v oblaku ali mesečne stroške. Če dobro nastavite svoje okolje, boste imeli zasebnega, zmogljivega AI pomočnika popolnoma pod svojim nadzorom.
Urednik, specializiran za tehnološka in internetna vprašanja, z več kot desetletnimi izkušnjami v različnih digitalnih medijih. Delal sem kot urednik in ustvarjalec vsebin za podjetja za e-trgovino, komunikacije, spletni marketing in oglaševanje. Pisal sem tudi na spletnih straneh s področja ekonomije, financ in drugih sektorjev. Moje delo je tudi moja strast. Zdaj pa skozi moje članke v Tecnobits, poskušam raziskati vse novosti in nove priložnosti, ki nam jih svet tehnologije ponuja vsak dan za izboljšanje našega življenja.
