- DeepSeek R1 este un model AI gratuit și open-source pe care îl puteți integra în Visual Studio Code ca asistent de codare.
- Există mai multe modalități de a rula DeepSeek local fără a te baza pe cloud, inclusiv instrumente precum Ollama, LM Studio și Jan.
- Pentru a profita la maximum de DeepSeek, este esențial să alegeți modelul potrivit în funcție de hardware-ul disponibil și să îl configurați corect în extensii precum CodeGPT sau Cline.
DeepSeek R1 a apărut ca o alternativă puternică și liberă la alte soluții alternative. Cel mai bun avantaj al său este că permite dezvoltatorilor să aibă un IA avansata pentru asistență pentru cod fără a vă baza pe serverele cloud. În acest articol vă explicăm Cum să utilizați DeepSeek în Visual Studio Code.
Și asta, datorită disponibilității sale în versiuni optimizate pentru execuție locală, integrarea sa este posibilă fără costuri suplimentare. Tot ce trebuie să faci este să apelezi la instrumente precum Ollama, LM Studio și Jan, precum și integrarea cu plugin-uri precum CodeGPT și Cline. Vă spunem totul în următoarele paragrafe:
Ce este DeepSeek R1?
După cum am explicat deja aici, DeepSeek R1 este un model de limbaj open source care concurează cu soluții comerciale precum GPT-4 în sarcini de raționament logic, generare de cod și rezolvare de probleme matematice. Principalul său avantaj este că poate fi rulat local fără a se baza pe servere externe, oferind un nivel ridicat de confidențialitate pentru dezvoltatori.
În funcție de hardware-ul disponibil, pot fi utilizate diferite versiuni ale modelului, de la parametri de 1.5B (pentru calculatoare modeste) până la parametri de 70B (pentru PC-uri performante cu GPU-uri avansate).
Metode pentru a rula DeepSeek în VSCode
Pentru a obține cea mai bună performanță cu DeepSeek en Codul Visual Studio, este esențial să alegeți soluția potrivită pentru a o rula pe sistemul dvs. Există trei opțiuni principale:
Opțiunea 1: Utilizarea Ollama
Ollama Este o platformă ușoară care vă permite să rulați modele AI la nivel local. Urmați acești pași pentru a instala și utiliza DeepSeek cu Ollama:
- Descărcați și instalați Ollama de pe site-ul său oficial (ollama.com).
- Într-un terminal, rulați:
ollama pull deepseek-r1:1.5b(pentru modele mai usoare) sau o varianta mai mare daca hardware-ul o permite. - Odată descărcat, Ollama va găzdui modelul în
http://localhost:11434, făcându-l accesibil pentru VSCode.
Opțiunea 2: Utilizarea LM Studio
LM Studio este o altă alternativă pentru a descărca și gestiona cu ușurință aceste tipuri de modele de limbaj (și, de asemenea, pentru a utiliza DeepSeek în Visual Studio Code). Iată cum se folosește:
- În primul rând, descărcați LM Studio și instalați-l pe sistemul dvs.
- Căutați și descărcați modelul DeepSeek R1 din filă Descopera.
- Încărcați modelul și permiteți serverului local să ruleze DeepSeek în Visual Studio Code.
Opțiunea 3: Utilizarea Jan
A treia opțiune pe care o recomandăm este Jan, o altă alternativă viabilă pentru rularea modelelor AI la nivel local. Pentru a-l folosi, trebuie să faceți următoarele:
- Mai întâi descărcați versiunea de Jan corespunzătoare sistemului dumneavoastră de operare.
- Apoi descărcați DeepSeek R1 din Hugging Face și încărcați-l în Jan.
- În cele din urmă, porniți serverul în
http://localhost:1337și configurați-l în VSCode.
Dacă doriți să explorați mai multe despre cum să utilizați DeepSeek în diferite medii, nu ezitați să consultați ghidul nostru DeepSeek în mediile Windows 11.

Integrarea DeepSeek cu Visual Studio Code
Odata ce ai DeepSeek lucrând la nivel local, este timpul să îl integrăm în Codul Visual Studio. Pentru a face acest lucru, puteți utiliza extensii precum Cod GPT o cline.
Configurarea CodeGPT
- Din filă Extensii În VSCode (Ctrl + Shift + X), căutați și instalați Cod GPT.
- Accesați setările extensiei și selectați Ollama ca furnizor LLM.
- Introduceți adresa URL a serverului pe care rulează DeepSeek la nivel local.
- Selectați modelul DeepSeek descărcat și salvați-l.
Configurarea Cline
cline Este un instrument mai orientat spre execuția automată a codului. Pentru a-l folosi cu DeepSeek în Visual Studio Code, urmați acești pași:
- Descărcați extensia cline în VSCode.
- Deschideți setările și selectați furnizorul API (Ollama sau Jan).
- Introduceți adresa URL a serverului local pe care rulează DeepSeek.
- Alegeți modelul AI și confirmați setările.
Pentru mai multe informații despre implementarea DeepSeek, vă recomand să verificați Cum integrează Microsoft DeepSeek R1 în Windows Copilot, care vă poate oferi o perspectivă mai largă asupra capacităților lor.
Sfaturi pentru alegerea modelului potrivit
El Performanța DeepSeek în Virtual Studio Code va depinde în mare măsură de modelul ales și de capacitățile hardware-ului dvs. Pentru referință, următorul tabel merită consultat:
| Model | RAM necesară | GPU recomandat |
|---|---|---|
| 1.5B | 4 GB | Integrat sau CPU |
| 7B | 8-10 GB | GTX 1660 sau mai mare |
| 14B | 16 GB+ | RTX 3060/3080 |
| 70B | 40 GB+ | RTX 4090 |
Dacă PC-ul dvs. este slab alimentat, puteți opta pentru modele mai mici sau versiuni cuantificate pentru a reduce consumul de memorie.
După cum puteți vedea, utilizarea DeepSeek în Visual Studio Code ne oferă o alternativă excelentă și gratuită la alți asistenți de cod plătiți. Posibilitatea de a-l rula local prin Ollama, LM Studio o Jan, oferă dezvoltatorilor posibilitatea de a beneficia de un instrument avansat fără a se baza pe servicii bazate pe cloud sau pe costuri lunare. Dacă vă configurați bine mediul, veți avea un asistent AI privat și puternic sub controlul dvs.
Editor specializat în probleme de tehnologie și internet cu peste zece ani de experiență în diferite medii digitale. Am lucrat ca editor și creator de conținut pentru companii de comerț electronic, comunicare, marketing online și publicitate. Am scris și pe site-uri de economie, finanțe și alte sectoare. Munca mea este și pasiunea mea. Acum, prin articolele mele din Tecnobits, încerc să explorez toate știrile și noile oportunități pe care lumea tehnologiei ni le oferă zi de zi pentru a ne îmbunătăți viața.
