- DeepSeek R1 là mô hình AI miễn phí và mã nguồn mở mà bạn có thể tích hợp vào Visual Studio Code như một trợ lý viết mã.
- Có một số cách để chạy DeepSeek cục bộ mà không cần dựa vào đám mây, bao gồm các công cụ như Ollama, LM Studio và Jan.
- Để tận dụng tối đa DeepSeek, điều quan trọng là phải chọn đúng model dựa trên phần cứng hiện có của bạn và cấu hình chính xác trong các tiện ích mở rộng như CodeGPT hoặc Cline.
DeepSeek R1 đã nổi lên như một giải pháp thay thế mạnh mẽ và miễn phí cho các giải pháp khác. Tài sản tốt nhất của nó là nó cho phép các nhà phát triển có một AI nâng cao để được hỗ trợ về mã mà không cần dựa vào máy chủ đám mây. Trong bài viết này chúng tôi giải thích cho bạn Cách sử dụng DeepSeek trong Visual Studio Code.
Và đó là nhờ vào tính khả dụng của nó trong các phiên bản được tối ưu hóa cho thực hiện cục bộ, việc tích hợp có thể thực hiện được mà không tốn thêm chi phí. Tất cả những gì bạn phải làm là sử dụng các công cụ như Ollama, LM Studio và Jan, cũng như tích hợp với các plugin như CodeGPT và Cline. Chúng tôi sẽ cho bạn biết mọi thông tin trong các đoạn sau:
DeepSeek R1 là gì?
Như chúng tôi đã giải thích ở đây, DeepSeek R1 là một Mô hình ngôn ngữ nguồn mở cạnh tranh với các giải pháp thương mại như GPT-4 trong các nhiệm vụ suy luận logic, tạo mã và giải quyết vấn đề toán học. Ưu điểm chính của nó là có thể chạy cục bộ mà không cần dựa vào máy chủ bên ngoài, cung cấp mức độ riêng tư cao cho các nhà phát triển.
Tùy thuộc vào phần cứng có sẵn, có thể sử dụng các phiên bản khác nhau của mô hình, từ tham số 1.5B (dành cho máy tính khiêm tốn) đến tham số 70B (dành cho PC hiệu suất cao có GPU tiên tiến).
Phương pháp chạy DeepSeek trong VSCode
Để đạt được hiệu suất tốt nhất với tìm kiếm sâu en Mã Visual Studio, điều quan trọng là phải chọn đúng giải pháp để chạy trên hệ thống của bạn. Có ba lựa chọn chính:
Lựa chọn 1: Sử dụng Ollama
Ollama Đây là nền tảng nhẹ cho phép bạn chạy các mô hình AI cục bộ. Thực hiện theo các bước sau để cài đặt và sử dụng DeepSeek với Ollama:
- Tải xuống và cài đặt Ollama từ trang web chính thức của nó (ollama.com).
- Trong terminal, hãy chạy:
ollama pull deepseek-r1:1.5b(đối với các mẫu nhẹ hơn) hoặc phiên bản lớn hơn nếu phần cứng cho phép. - Sau khi tải xuống, Ollama sẽ lưu trữ mô hình trong
http://localhost:11434, giúp VSCode có thể truy cập được.
Tùy chọn 2: Sử dụng LM Studio
Studio LM là một giải pháp thay thế khác để dễ dàng tải xuống và quản lý các loại mô hình ngôn ngữ này (và cũng để sử dụng DeepSeek trong Visual Studio Code). Sau đây là cách sử dụng:
- Đầu tiên, tải về Studio LM và cài đặt nó trên hệ thống của bạn.
- Tìm kiếm và tải xuống mô hình DeepSeek R1 từ tab Khám phá.
- Tải mô hình lên và cho phép máy chủ cục bộ chạy DeepSeek trong Visual Studio Code.
Tùy chọn 3: Sử dụng Jan
Lựa chọn thứ ba chúng tôi đề xuất là Tháng, một giải pháp thay thế khả thi khác để chạy các mô hình AI cục bộ. Để sử dụng, bạn phải làm như sau:
- Đầu tiên hãy tải phiên bản của Tháng tương ứng với hệ điều hành của bạn.
- Sau đó tải DeepSeek R1 từ Hugging Face và nạp vào Jan.
- Cuối cùng, khởi động máy chủ trong
http://localhost:1337và thiết lập nó trong VSCode.
Nếu bạn muốn khám phá thêm về cách sử dụng DeepSeek trong các môi trường khác nhau, hãy thoải mái xem hướng dẫn của chúng tôi về DeepSeek trong môi trường Windows 11.

Tích hợp DeepSeek với Visual Studio Code
Một khi bạn có tìm kiếm sâu làm việc tại địa phương, đã đến lúc tích hợp nó vào Mã Visual Studio. Để làm điều này, bạn có thể sử dụng các tiện ích mở rộng như Mã GPT o cline.
Cấu hình CodeGPT
- Từ tab Phần mở rộng Trong VSCode (Ctrl + Shift + X), tìm kiếm và cài đặt Mã GPT.
- Truy cập cài đặt tiện ích mở rộng và chọn Ollama với tư cách là nhà cung cấp LLM.
- Nhập URL của máy chủ nơi nó chạy tìm kiếm sâu tại địa phương.
- Chọn mô hình DeepSeek đã tải xuống và lưu lại.
Cấu hình Cline
cline Đây là công cụ hướng nhiều hơn đến việc thực thi mã tự động. Để sử dụng với DeepSeek trong Visual Studio Code, hãy làm theo các bước sau:
- Tải xuống tiện ích mở rộng cline trong VSCode.
- Mở cài đặt và chọn nhà cung cấp API (Ollama hoặc Jan).
- Nhập URL của máy chủ cục bộ nơi nó đang chạy tìm kiếm sâu.
- Chọn mô hình AI và xác nhận cài đặt.
Để biết thêm thông tin về việc triển khai DeepSeek, tôi khuyên bạn nên xem Cách Microsoft tích hợp DeepSeek R1 vào Windows Copilot, có thể cung cấp cho bạn góc nhìn rộng hơn về khả năng của họ.
Mẹo để chọn đúng mẫu
El Hiệu suất DeepSeek trong Virtual Studio Code sẽ phụ thuộc phần lớn vào mẫu máy bạn chọn và khả năng của phần cứng. Để tham khảo, bạn có thể tham khảo bảng sau:
| kiểu mẫu | RAM yêu cầu | GPU được đề xuất |
|---|---|---|
| 1.5B | 4 GB | Tích hợp hoặc CPU |
| 7B | 8 10-GB | GTX 1660 trở lên |
| 14B | 16 GB + | RTX3060/3080 |
| 70B | 40 GB + | RTX 4090 |
Nếu máy tính của bạn không đủ mạnh, bạn có thể chọn các mẫu máy nhỏ hơn hoặc phiên bản lượng tử để giảm mức tiêu thụ bộ nhớ.
Như bạn có thể thấy, việc sử dụng DeepSeek trong Visual Studio Code cung cấp cho chúng ta một giải pháp thay thế tuyệt vời và miễn phí cho các trợ lý lập trình trả phí khác. Khả năng chạy nó cục bộ thông qua Ollama, Studio LM o Tháng, mang đến cho các nhà phát triển cơ hội được hưởng lợi từ một công cụ tiên tiến mà không cần dựa vào các dịch vụ đám mây hoặc chi phí hàng tháng. Nếu bạn thiết lập môi trường tốt, bạn sẽ có một trợ lý AI mạnh mẽ, riêng tư hoàn toàn nằm trong tầm kiểm soát của bạn.
Biên tập viên chuyên về các vấn đề công nghệ và internet với hơn mười năm kinh nghiệm trong các lĩnh vực truyền thông kỹ thuật số khác nhau. Tôi đã từng làm biên tập viên và người sáng tạo nội dung cho các công ty thương mại điện tử, truyền thông, tiếp thị và quảng cáo trực tuyến. Tôi cũng đã viết trên các trang web kinh tế, tài chính và các lĩnh vực khác. Công việc của tôi cũng là niềm đam mê của tôi. Bây giờ, qua bài viết của tôi trong Tecnobits, Tôi cố gắng khám phá tất cả những tin tức và cơ hội mới mà thế giới công nghệ mang đến cho chúng ta hàng ngày để cải thiện cuộc sống của chúng ta.
