Claude mengubah aturan: beginilah cara Anda mengonfigurasi akun Anda jika Anda tidak ingin obrolan Anda melatih AI

Pembaruan terakhir: 02/09/2025

  • Anthropic memperkenalkan preferensi eksplisit bagi pengguna untuk memilih apakah percakapan mereka dengan Claude digunakan untuk pelatihan.
  • Perubahan ini memengaruhi paket Gratis, Pro, dan Max; penggunaan Work, Government, Education, dan API (Bedrock, Vertex AI) dikecualikan.
  • Penyimpanan data berlaku selama lima tahun jika Anda berpartisipasi dan 30 hari jika tidak; obrolan yang dihapus tidak akan digunakan untuk pelatihan.
  • Anda harus menetapkan preferensi Anda paling lambat 28 September 2025; Anda dapat mengubahnya kapan saja di Privasi.

Privasi di Claude

Berbicara dengan asisten AI sudah menjadi hal yang lumrah, tetapi kita jarang memikirkannya. Ada apa dengan pembicaraan itu?Sekarang Antropik memperkenalkan perubahan relevan dalam privasi Claude:Setelah batas waktu, setiap pengguna harus memutuskan apakah akan mengizinkan percakapan mereka digunakan untuk melatih model masa depan.

Perusahaan akan membutuhkan mereka yang menggunakan Claude pada paket Gratis, Pro dan Max Pilih preferensi Anda sebelum 28 September 2025Tanpa pilihan ini, melanjutkan penggunaan layanan menjadi lebih sulit; keputusan akan muncul dalam pemberitahuan dalam aplikasi dan juga dapat ditetapkan selama pendaftaran akun baru.

Perubahan apa saja yang terjadi?

Pembaruan Privasi Claude

Mulai sekarang, pengguna dapat memberikan atau tidak izin mereka untuk obrolan dan sesi kode Anda Bantu tingkatkan kinerja dan keamanan Claude. Pilihan ini bersifat sukarela dan dapat dibatalkan kapan saja melalui pengaturan Privasi Anda, tanpa harus melalui proses yang rumit.

Konten eksklusif - Klik Disini  BitLocker meminta kata sandi setiap kali Anda boot: penyebab sebenarnya dan cara menghindarinya

Kebijakan baru ini hanya berlaku untuk aktivitas pasca penerimaanUtas lama tanpa interaksi baru tidak akan digunakan untuk pelatihan. Namun, jika Anda melanjutkan obrolan atau sesi pemrograman setelah menerima, kontribusi Anda sejak saat itu dapat dimasukkan ke dalam set data peningkatan.

Perubahan ini tidak mencakup seluruh ekosistem Antropik. Mereka terabaikan. Claude untuk Pekerjaan, Claude untuk Pemerintah, Claude untuk Pendidikan dan akses API melalui penyedia seperti Amazon Bedrock atau Vertex AI dari Google Cloud. Artinya, fokusnya adalah pada penggunaan Claude.ai dan Claude Code oleh konsumen yang terkait dengan paket-paket tersebut.

Mereka yang menerima sekarang akan langsung merasakan dampaknya pada percakapan baru mereka. Bagaimanapun, dari batas waktu itu akan menjadi wajib telah menunjukkan preferensi untuk terus menggunakan layanan tanpa gangguan.

Pemrosesan dan penyimpanan data

 

Jika Anda memberikan izin, Informasi yang diberikan untuk tujuan perbaikan dapat disimpan untuk lima tahunJika Anda tidak berpartisipasi, kebijakan Retensi 30 hari. Di samping itu, Obrolan yang dihapus tidak akan disertakan dalam pelatihan mendatang, dan umpan balik apa pun yang Anda kirimkan dapat disimpan berdasarkan aturan yang sama.

Konten eksklusif - Klik Disini  Cara menghubungi nomor tanpa terdeteksi

Klaim antropik untuk menggabungkan alat dan proses otomatis untuk menyaring atau mengaburkan data sensitif, dan tidak menjual informasi pengguna kepada pihak ketiga. Sebagai imbalannya, penggunaan interaksi nyata bertujuan untuk memperkuat perlindungan terhadap penyalahgunaan dan meningkatkan keterampilan seperti penalaran, analisis, dan koreksi kode.

Alasan dan konteks perubahan

Model bahasa memerlukan volume data yang besar dan siklus iterasi yang panjang. Dengan web terbuka yang menyediakan semakin sedikit konten baru, perusahaan memprioritaskan sinyal dari interaksi nyata untuk menyempurnakan respons dan mendeteksi perilaku bermasalah dengan lebih baik.

Cara mengatur preferensi Anda

Claude Chrome Antropik

Saat login, banyak yang akan melihat pemberitahuan “Pembaruan pada ketentuan dan kebijakan konsumenDi kotak tersebut, Anda akan melihat kontrol yang memungkinkan percakapan Anda membantu meningkatkan Claude. Jika Anda tidak ingin berpartisipasi, nonaktifkan opsi tersebut dan konfirmasikan dengan mengeklik "Terima".

Jika Anda sudah menerima dan ingin memeriksanya, buka Claude dan pergi ke Pengaturan > Privasi > Pengaturan PrivasiDi sana, Anda dapat mengubah opsi "Bantu tingkatkan Claude" kapan pun Anda mau. Perlu diingat bahwa menonaktifkannya tidak akan menghapus apa pun yang sebelumnya digunakan; yang dilakukannya hanyalah memblokir interaksi baru memasuki pelatihan masa depan.

Konten eksklusif - Klik Disini  Bagaimana cara menghapus instalasi Bitdefender untuk Mac?

Batasan dan klarifikasi

Perusahaan menekankan bahwa pengumpulan untuk tujuan perbaikan berlaku hanya untuk konten baru setelah menyetujui persyaratan. Melanjutkan obrolan lama akan menambahkan materi terbaru, tetapi konten lama tetap dikecualikan jika tidak ada aktivitas selanjutnya. Akun bisnis dan pemerintah menggunakan kondisi terpisah, jadi perubahan ini tidak memengaruhi mereka.

Bagi mereka yang mengutamakan privasi maksimal, pengaturan ini memungkinkan Anda untuk memilih keluar dan mempertahankan kebijakan 30 hari. Di sisi lain, mereka yang berkontribusi data akan melihat bagaimana mekanisme keamanan dan kemampuan model disesuaikan dengan sinyal dari penggunaan di dunia nyata.

Dengan langkah ini, Anthropic berupaya untuk menjembatani kebutuhan data dan kontrol pengguna: Anda memilih apakah percakapan Anda membantu pelatihan, Anda tahu berapa lama data tersebut disimpan dan dapat berubah pikiran kapan saja, dengan aturan yang lebih jelas tentang apa yang dikumpulkan dan kapan.

cara melindungi privasi
Artikel terkait:
Lindungi privasi Anda di Google Gemini: Panduan lengkap