- DeepSeek R1 е безплатен AI модел с отворен код, който можете да интегрирате във Visual Studio Code като помощник за кодиране.
- Има няколко начина да стартирате DeepSeek локално, без да разчитате на облака, включително инструменти като Ollama, LM Studio и Jan.
- За да извлечете максимума от DeepSeek, от ключово значение е да изберете правилния модел въз основа на вашия наличен хардуер и да го конфигурирате правилно в разширения като CodeGPT или Cline.
DeepSeek R1 се появи като мощна и безплатна алтернатива на други алтернативни решения. Най-добрият му актив е, че позволява на разработчиците да имат Разширен AI за помощ при кодиране, без да разчитате на облачни сървъри. В тази статия ви обясняваме Как да използвате DeepSeek във Visual Studio Code.
И това е, благодарение на наличността му във версии, оптимизирани за местно изпълнение, интегрирането му е възможно без допълнителни разходи. Всичко, което трябва да направите, е да прибегнете до инструменти като Ollama, LM Studio и Jan, както и интеграция с плъгини като CodeGPT и Cline. Казваме ви всичко в следните параграфи:
Какво е DeepSeek R1?
Както вече обяснихме тук, DeepSeek R1 е езиков модел с отворен код който се конкурира с търговски решения като GPT-4 в задачи за логическо разсъждение, генериране на код и решаване на математически проблеми. Основното му предимство е, че може да се изпълнява локално, без да се разчита на външни сървъри, осигурявайки високо ниво на поверителност за разработчиците.
В зависимост от наличния хардуер могат да се използват различни версии на модела, от 1.5B параметри (за скромни компютри) до 70B параметри (за високопроизводителни компютри с усъвършенствани GPU).
Методи за стартиране на DeepSeek във VSCode
За да постигнете най-добро представяне с DeepSeek en Кода на Visual Studio, важно е да изберете правилното решение, за да го стартирате на вашата система. Има три основни опции:
Вариант 1: Използване на Ollama
Олама Това е лека платформа, която ви позволява да стартирате AI модели локално. Следвайте тези стъпки, за да инсталирате и използвате DeepSeek с Ollama:
- Изтеглете и инсталирайте Ollama от официалния си уебсайт (ollama.com).
- В терминал изпълнете:
ollama pull deepseek-r1:1.5b(за по-леки модели) или по-голям вариант, ако хардуерът го позволява. - След като бъде изтеглен, Ollama ще хоства модела
http://localhost:11434, което го прави достъпен за VSCode.
Вариант 2: Използване на LM Studio
LM Studio е друга алтернатива за лесно изтегляне и управление на тези видове езикови модели (а също и за използване на DeepSeek във Visual Studio Code). Ето как да го използвате:
- Първо изтеглете LM Studio и го инсталирайте на вашата система.
- Търсете и изтеглете модела DeepSeek R1 от раздела ПОВЕЧЕ.
- Качете модела и активирайте локалния сървър да изпълнява DeepSeek в Visual Studio Code.
Вариант 3: Използване на Jan
Третият вариант, който препоръчваме е клозет, друга жизнеспособна алтернатива за локално изпълнение на AI модели. За да го използвате, трябва да направите следното:
- Първо изтеглете версията на клозет съответстващ на вашата операционна система.
- След това изтеглете DeepSeek R1 от Hugging Face и го заредете в Jan.
- Накрая стартирайте сървъра
http://localhost:1337и го настройте във VSCode.
Ако искате да проучите повече за това как да използвате DeepSeek в различни среди, не се колебайте да разгледате нашето ръководство за DeepSeek в среди на Windows 11.

DeepSeek интеграция с Visual Studio Code
след като имате DeepSeek работи локално, време е да го интегрирате в Кода на Visual Studio. За да направите това, можете да използвате разширения като КодGPT o Клайн.
Конфигуриране на CodeGPT
- От раздела Разширения Във VSCode (Ctrl + Shift + X), потърсете и инсталирайте КодGPT.
- Влезте в настройките на разширението и изберете Олама като доставчик на LLM.
- Въведете URL адреса на сървъра, на който се изпълнява DeepSeek локално.
- Изберете изтегления модел DeepSeek и го запазете.
Конфигуриране на Cline
Клайн Това е инструмент, по-ориентиран към автоматичното изпълнение на код. За да го използвате с DeepSeek във Visual Studio Code, изпълнете следните стъпки:
- Изтеглете разширението Клайн във VSCode.
- Отворете настройките и изберете доставчика на API (Ollama или Jan).
- Въведете URL адреса на локалния сървър, на който се изпълнява DeepSeek.
- Изберете AI модела и потвърдете настройките.
За повече информация относно внедряването на DeepSeek ви препоръчвам да разгледате Как Microsoft интегрира DeepSeek R1 в Windows Copilot, което може да ви даде по-широка представа за техните възможности.
Съвети за избор на правилния модел
El Производителност на DeepSeek във Virtual Studio Code ще зависи до голяма степен от избрания модел и възможностите на вашия хардуер. За справка си струва да се консултирате със следната таблица:
| модел | Необходима RAM | Препоръчителен графичен процесор |
|---|---|---|
| 1.5B | 4 GB | Интегриран или CPU |
| 7B | 8 10-GB | GTX 1660 или по-нова |
| 14B | 16 GB + | RTX 3060/3080 |
| 70B | 40 GB + | RTX 4090 |
Ако вашият компютър е с недостатъчна мощност, можете да изберете по-малки модели или квантувани версии, за да намалите потреблението на памет.
Както можете да видите, използването на DeepSeek във Visual Studio Code ни предлага отлична, безплатна алтернатива на други помощници за платен код. Възможност за локално изпълнение Олама, LM Studio o клозет, дава възможност на разработчиците да се възползват от усъвършенстван инструмент, без да разчитат на базирани на облак услуги или месечни разходи. Ако настроите средата си добре, ще имате частен, мощен AI асистент изцяло под ваш контрол.
Редактор, специализиран в областта на технологиите и интернет, с повече от десет години опит в различни цифрови медии. Работил съм като редактор и създател на съдържание за компании за електронна търговия, комуникации, онлайн маркетинг и реклама. Писал съм и на уебсайтове за икономика, финанси и други сектори. Работата ми е и моя страст. Сега, чрез моите статии в Tecnobits, опитвам се да изследвам всички новини и нови възможности, които светът на технологиите ни предлага всеки ден, за да подобрим живота си.
