- DeepSeek R1 adalah model AI gratis dan sumber terbuka yang dapat Anda integrasikan ke dalam Visual Studio Code sebagai asisten pengkodean.
- Ada beberapa cara untuk menjalankan DeepSeek secara lokal tanpa bergantung pada cloud, termasuk alat seperti Ollama, LM Studio, dan Jan.
- Untuk mendapatkan hasil maksimal dari DeepSeek, kuncinya adalah memilih model yang tepat berdasarkan perangkat keras yang tersedia dan mengonfigurasinya dengan benar dalam ekstensi seperti CodeGPT atau Cline.
Pencarian Mendalam R1 telah muncul sebagai alternatif yang kuat dan gratis untuk solusi alternatif lainnya. Aset terbaiknya adalah memungkinkan pengembang untuk memiliki IA maju untuk bantuan kode tanpa bergantung pada server cloud. Dalam artikel ini kami menjelaskan kepada Anda Cara menggunakan DeepSeek di Visual Studio Code.
Dan hal itu terjadi berkat ketersediaannya dalam versi yang dioptimalkan untuk eksekusi lokal, integrasinya dimungkinkan tanpa biaya tambahan. Yang harus Anda lakukan adalah menggunakan alat seperti Ollama, LM Studio dan Jan, serta integrasi dengan plugin seperti CodeGPT dan Cline. Kami beritahukan semuanya pada paragraf berikut:
Apa itu DeepSeek R1?
Seperti yang sudah kami jelaskan di sini, Pencarian Mendalam R1 adalah model bahasa sumber terbuka yang bersaing dengan solusi komersial seperti GPT-4 dalam tugas penalaran logis, pembuatan kode, dan pemecahan masalah matematika. Keuntungan utamanya adalah dapat dijalankan secara lokal tanpa bergantung pada server eksternal, menyediakan tingkat privasi yang tinggi bagi pengembang.
Bergantung pada perangkat keras yang tersedia, versi model yang berbeda dapat digunakan, dari parameter 1.5B (untuk komputer sederhana) hingga parameter 70B (untuk PC berperforma tinggi dengan GPU canggih).
Metode untuk Menjalankan DeepSeek di VSCode
Untuk mencapai kinerja terbaik dengan Pencarian Mendalam en Kode Visual Studio, penting untuk memilih solusi yang tepat untuk menjalankannya di sistem Anda. Ada tiga pilihan utama:
Opsi 1: Menggunakan Ollama
Ollama Ini adalah platform ringan yang memungkinkan Anda menjalankan model AI secara lokal. Ikuti langkah-langkah berikut untuk menginstal dan menggunakan DeepSeek dengan Ollama:
- Unduh dan instal Ollama dari situs resminya (ollama.com).
- Di terminal, jalankan:
ollama pull deepseek-r1:1.5b(untuk model yang lebih ringan) atau varian yang lebih besar jika perangkat keras mengizinkannya. - Setelah diunduh, Ollama akan menjadi tuan rumah model di
http://localhost:11434, membuatnya dapat diakses oleh VSCode.
Opsi 2: Menggunakan LM Studio
Studio LM adalah alternatif lain untuk mengunduh dan mengelola jenis model bahasa ini dengan mudah (dan juga menggunakan DeepSeek di Visual Studio Code). Berikut cara menggunakannya:
- Pertama, unduh Studio LM dan menginstalnya di sistem Anda.
- Cari dan unduh modelnya Pencarian Mendalam R1 dari tab Penelusuran.
- Unggah model dan aktifkan server lokal untuk menjalankan DeepSeek di Visual Studio Code.
Opsi 3: Menggunakan Jan
Pilihan ketiga yang kami rekomendasikan adalah jan, alternatif lain yang layak untuk menjalankan model AI secara lokal. Untuk menggunakannya, Anda harus melakukan hal berikut:
- Pertama unduh versi jan sesuai dengan sistem operasi Anda.
- Lalu unduh DeepSeek R1 dari Hugging Face dan muat ke Jan.
- Terakhir, mulai server di
http://localhost:1337dan mengaturnya dalam VSCode.
Jika Anda ingin mempelajari lebih lanjut tentang cara menggunakan DeepSeek di lingkungan yang berbeda, silakan lihat panduan kami di DeepSeek di lingkungan Windows 11.

Integrasi DeepSeek dengan Visual Studio Code
sekali kamu punya Pencarian Mendalam bekerja secara lokal, sekarang saatnya untuk mengintegrasikannya ke dalam Kode Visual Studio. Untuk melakukan ini, Anda dapat menggunakan ekstensi seperti KodeGPT o Klein.
Mengonfigurasi CodeGPT
- Dari tab Ekstensi Di VSCode (Ctrl + Shift + X), cari dan instal KodeGPT.
- Akses pengaturan ekstensi dan pilih Ollama sebagai penyedia LLM.
- Masukkan URL server tempat menjalankannya Pencarian Mendalam secara lokal.
- Pilih model DeepSeek yang diunduh dan simpan.
Mengonfigurasi Cline
Klein Ini adalah alat yang lebih berorientasi pada eksekusi kode secara otomatis. Untuk menggunakannya dengan DeepSeek di Visual Studio Code, ikuti langkah-langkah berikut:
- Descarga la ekstension Klein dalam VSCode.
- Buka pengaturan dan pilih penyedia API (Ollama atau Jan).
- Masukkan URL server lokal tempat ia berjalan Pencarian Mendalam.
- Pilih model AI dan konfirmasikan pengaturannya.
Untuk informasi lebih lanjut tentang implementasi DeepSeek, saya sarankan Anda memeriksa Bagaimana Microsoft mengintegrasikan DeepSeek R1 ke dalam Windows Copilot, yang dapat memberi Anda perspektif lebih luas tentang kemampuan mereka.
Tips Memilih Model yang Tepat
El Performa DeepSeek di Virtual Studio Code akan sangat bergantung pada model yang dipilih dan kemampuan perangkat keras Anda. Sebagai referensi, tabel berikut ini layak untuk dilihat:
| Modelo | RAM yang dibutuhkan | GPU yang Direkomendasikan |
|---|---|---|
| 1.5B | 4 GB | Terintegrasi atau CPU |
| 7B | 8-10 GB | GTX 1660 atau lebih tinggi |
| 14B | 16 GB + | RTX 3060/3080 |
| 70B | 40 GB + | RTX 4090 |
Jika PC Anda kekurangan daya, Anda dapat memilih model yang lebih kecil atau versi terkuantisasi untuk mengurangi konsumsi memori.
Seperti yang Anda lihat, penggunaan DeepSeek di Visual Studio Code menawarkan kepada kita alternatif gratis dan luar biasa dibandingkan asisten kode berbayar lainnya. Kemungkinan menjalankannya secara lokal melalui Ollama, Studio LM o jan, memberi pengembang peluang untuk memanfaatkan alat canggih tanpa bergantung pada layanan berbasis cloud atau biaya bulanan. Jika Anda mengatur lingkungan Anda dengan baik, Anda akan memiliki asisten AI pribadi yang tangguh dan sepenuhnya berada di bawah kendali Anda.
Editor yang berspesialisasi dalam isu-isu teknologi dan internet dengan pengalaman lebih dari sepuluh tahun di berbagai media digital. Saya telah bekerja sebagai editor dan pembuat konten untuk perusahaan e-commerce, komunikasi, pemasaran online, dan periklanan. Saya juga menulis di situs web ekonomi, keuangan dan sektor lainnya. Pekerjaanku juga merupakan passionku. Sekarang, melalui artikel saya di Tecnobits, Saya mencoba mengeksplorasi semua berita dan peluang baru yang ditawarkan dunia teknologi kepada kita setiap hari untuk meningkatkan kehidupan kita.
