- Asisten AI menyimpan konten, pengenal, penggunaan, lokasi, dan data perangkat, dengan peninjauan manusia dalam kasus tertentu.
- Ada risiko di seluruh siklus hidup (penelanan, pelatihan, inferensi, dan penerapan), termasuk injeksi cepat dan kebocoran.
- GDPR, Undang-Undang AI, dan kerangka kerja seperti NIST AI RMF memerlukan transparansi, minimalisasi, dan kontrol yang proporsional dengan risikonya.
- Konfigurasikan aktivitas, izin, dan penghapusan otomatis; lindungi data sensitif, gunakan 2FA, dan tinjau kebijakan dan penyedia.

Kecerdasan buatan telah berubah dari sesuatu yang menjanjikan menjadi sesuatu yang rutin dalam waktu singkat, dan seiring dengan itu, muncullah beberapa keraguan spesifik: Data apa yang dikumpulkan asisten AI?Bagaimana mereka menggunakannya dan apa yang bisa kita lakukan untuk menjaga keamanan informasi kita. Jika Anda menggunakan chatbot, asisten peramban, atau model generatif, sebaiknya kendalikan privasi Anda sesegera mungkin.
Selain menjadi alat yang sangat berguna, sistem ini memanfaatkan data berskala besar. Volume, asal, dan penanganan informasi tersebut Mereka menghadirkan risiko baru: mulai dari menyimpulkan ciri-ciri pribadi hingga paparan konten sensitif secara tidak sengaja. Di sini Anda akan menemukan, secara detail dan tanpa bertele-tele, apa yang mereka tangkap, mengapa mereka melakukannya, apa yang dikatakan hukum, dan Cara melindungi akun dan aktivitas AndaMari kita pelajari semua tentang Data apa yang dikumpulkan asisten AI dan bagaimana melindungi privasi Anda.
Data apa yang sebenarnya dikumpulkan asisten AI?
Asisten modern memproses lebih dari sekadar pertanyaan Anda. Informasi kontak, pengenal, penggunaan dan konten Ini biasanya termasuk dalam kategori standar. Kita berbicara tentang nama dan email, tetapi juga alamat IP, informasi perangkat, log interaksi, kesalahan, dan, tentu saja, konten yang Anda buat atau unggah (pesan, berkas, gambar, atau tautan publik).
Dalam ekosistem Google, pemberitahuan privasi Gemini secara akurat menjelaskan apa yang dikumpulkannya informasi dari aplikasi yang terhubung (misalnya, riwayat Penelusuran atau YouTube, konteks Chrome), data perangkat dan browser (jenis, setelan, pengenal), metrik performa dan debugging, dan bahkan izin sistem pada perangkat seluler (seperti akses ke kontak, log panggilan dan pesan atau konten di layar) saat diizinkan oleh pengguna.
Mereka juga berurusan data lokasi (perkiraan lokasi perangkat, alamat IP, atau alamat yang tersimpan di akun) dan detail langganan jika Anda menggunakan paket berbayar. Selain itu, berikut ini juga disimpan: konten sendiri yang dihasilkan oleh model (teks, kode, audio, gambar atau ringkasan), sesuatu yang penting untuk memahami jejak yang Anda tinggalkan saat berinteraksi dengan alat-alat ini.
Perlu dicatat bahwa pengumpulan data tidak terbatas pada pelatihan: Peserta dapat merekam aktivitas secara real time Selama penggunaan (misalnya, saat Anda menggunakan ekstensi atau plugin), hal ini mencakup telemetri dan peristiwa aplikasi. Hal ini menjelaskan mengapa mengontrol izin dan meninjau pengaturan aktivitas sangatlah penting.
Untuk apa mereka menggunakan data itu dan siapa yang dapat melihatnya?
Perusahaan sering kali menggunakan tujuan yang luas dan berulang: Untuk menyediakan, memelihara, dan meningkatkan layanan, mempersonalisasi pengalaman, dan mengembangkan fitur baruuntuk berkomunikasi dengan Anda, mengukur kinerja, dan melindungi pengguna serta platform. Semua ini juga berlaku untuk teknologi pembelajaran mesin dan model generatif itu sendiri.
Bagian sensitif dari proses ini adalah ulasan manusiaBerbagai vendor mengakui bahwa staf internal atau penyedia layanan meninjau sampel interaksi untuk meningkatkan keamanan dan kualitas. Oleh karena itu, rekomendasi yang konsisten adalah: hindari memasukkan informasi rahasia yang tidak ingin dilihat orang lain atau yang akan digunakan untuk menyempurnakan model.
Dalam kebijakan yang diketahui, beberapa layanan menunjukkan bahwa mereka tidak membagikan data tertentu untuk tujuan periklanan, meskipun Ya, mereka dapat memberikan informasi kepada pihak berwenang. berdasarkan persyaratan hukum. Yang lain, berdasarkan sifatnya, berbagi dengan pengiklan atau mitra pengenal dan sinyal agregat untuk analitik dan segmentasi, membuka pintu untuk pembuatan profil.
Perawatannya juga termasuk, retensi untuk periode yang telah ditentukanMisalnya, beberapa penyedia menetapkan periode penghapusan otomatis default selama 18 bulan (dapat disesuaikan menjadi 3, 36, atau tanpa batas waktu), dan menyimpan percakapan yang telah ditinjau untuk jangka waktu yang lebih lama demi alasan kualitas dan keamanan. Sebaiknya tinjau periode penyimpanan dan aktifkan penghapusan otomatis jika Anda ingin meminimalkan jejak digital Anda.
Risiko privasi di seluruh siklus hidup AI

Privasi tidak dipertaruhkan pada satu titik saja, tetapi pada seluruh rantai: penyerapan data, pelatihan, inferensi, dan lapisan aplikasiDalam pengumpulan data massal, data sensitif dapat secara tidak sengaja disertakan tanpa persetujuan yang tepat; selama pelatihan, harapan penggunaan asli dapat dengan mudah terlampaui; dan selama inferensi, model dapat menyimpulkan ciri-ciri pribadi mulai dari sinyal yang tampaknya sepele; dan dalam aplikasi, API atau antarmuka web merupakan target yang menarik bagi penyerang.
Dengan sistem generatif, risikonya berlipat ganda (misalnya, mainan AI). Kumpulan data yang diekstraksi dari Internet tanpa izin tertulis Mereka mungkin berisi informasi pribadi, dan beberapa perintah berbahaya (injeksi prompt) berusaha memanipulasi model untuk menyaring konten sensitif atau menjalankan instruksi berbahaya. Di sisi lain, banyak pengguna Mereka menempelkan data rahasia tanpa mempertimbangkan bahwa mereka dapat disimpan atau digunakan untuk menyesuaikan versi model di masa mendatang.
Penelitian akademis telah mengungkap masalah-masalah spesifik. Sebuah analisis terbaru tentang asisten peramban Alat ini mendeteksi praktik pelacakan dan pembuatan profil yang meluas, dengan transmisi konten pencarian, data formulir sensitif, dan alamat IP ke server penyedia. Lebih lanjut, alat ini menunjukkan kemampuan untuk menyimpulkan usia, jenis kelamin, pendapatan, dan minat, dengan personalisasi yang terus berlanjut di berbagai sesi; dalam studi tersebut, Hanya satu layanan yang tidak menunjukkan bukti adanya profiling.
Sejarah kejadian mengingatkan kita bahwa risikonya bukan sekadar teoritis: pelanggaran keamanan Mereka telah mengungkap riwayat obrolan atau metadata pengguna, dan penyerang sudah memanfaatkan teknik pemodelan untuk mengekstrak informasi pelatihan. Yang memperburuk keadaan, Otomatisasi jalur pipa AI Hal ini mempersulit pendeteksian masalah privasi jika pengamanan tidak dirancang sejak awal.
Apa kata undang-undang dan kerangka kerja?
Sebagian besar negara sudah memiliki peraturan privasi berlaku, dan meskipun tidak semuanya khusus untuk AI, hal ini berlaku untuk sistem apa pun yang memproses data pribadi. Di Eropa, RGPD Hal ini memerlukan legalitas, transparansi, minimalisasi, pembatasan tujuan, dan keamanan; selain itu, UU AI Eropa memperkenalkan kategori risiko, melarang praktik berdampak tinggi (seperti penilaian sosial publik) dan menerapkan persyaratan ketat pada sistem berisiko tinggi.
Di AS, peraturan negara bagian seperti CCPA atau hukum Texas Mereka memberikan hak untuk mengakses, menghapus, dan memilih keluar dari penjualan data, sementara inisiatif seperti undang-undang Utah Mereka menuntut pemberitahuan yang jelas saat pengguna berinteraksi dengan sistem generatif. Lapisan-lapisan normatif ini hidup berdampingan dengan ekspektasi sosial: jajak pendapat menunjukkan ketidakpercayaan yang nyata terhadap penggunaan yang bertanggung jawab data oleh perusahaan, dan perbedaan antara persepsi diri pengguna dan perilaku mereka yang sebenarnya (misalnya, menerima kebijakan tanpa membacanya).
Untuk mendasarkan manajemen risiko, kerangka kerja NIST (AI RMF) Pendekatan ini mengusulkan empat fungsi berkelanjutan: Tata Kelola (kebijakan dan pengawasan yang bertanggung jawab), Peta (memahami konteks dan dampak), Ukur (menilai dan memantau risiko dengan metrik), dan Kelola (memprioritaskan dan memitigasi). membantu mengadaptasi kontrol sesuai dengan tingkat risiko sistem.
Siapa yang mengumpulkan paling banyak: sinar-X dari chatbot paling populer
Perbandingan terkini menempatkan asisten yang berbeda pada spektrum koleksi. Gemini Google menduduki peringkat teratas dengan mengumpulkan jumlah titik data unik terbesar di berbagai kategori (termasuk kontak seluler, jika izin diberikan), sesuatu yang jarang muncul pada pesaing lain.
Pada kisaran menengah, solusinya meliputi: Claude, Copilot, DeepSeek, ChatGPT dan Perplexity, dengan antara sepuluh dan tiga belas jenis data, yang memvariasikan campuran antara kontak, lokasi, pengenal, konten, riwayat, diagnosis, penggunaan, dan pembelian. Groko Letaknya di bagian bawah dengan rangkaian sinyal yang lebih terbatas.
Ada juga perbedaan dalam penggunaan selanjutnyaTelah didokumentasikan bahwa beberapa layanan berbagi pengenal tertentu (seperti email terenkripsi) dan sinyal untuk segmentasi dengan pengiklan dan mitra bisnis, sementara yang lain menyatakan bahwa mereka tidak menggunakan data untuk tujuan periklanan atau menjualnya, meskipun mereka berhak untuk menanggapi permintaan hukum atau menggunakannya untuk meningkatkan sistem, kecuali pengguna meminta penghapusan.
Dari sudut pandang pengguna akhir, hal ini diterjemahkan menjadi satu saran yang jelas: Tinjau kebijakan masing-masing penyediaSesuaikan izin aplikasi dan putuskan secara sadar informasi apa yang Anda berikan dalam setiap konteks, terutama jika Anda akan mengunggah file atau berbagi konten sensitif.
Praktik terbaik penting untuk melindungi privasi Anda
Pertama-tama, konfigurasikan dengan hati-hati pengaturan untuk setiap asisten. Jelajahi apa yang disimpan, untuk berapa lama, dan untuk tujuan apa.dan aktifkan penghapusan otomatis jika tersedia. Tinjau kebijakan secara berkala, karena kebijakan sering berubah dan mungkin menyertakan opsi kontrol baru.
Hindari berbagi data pribadi dan sensitif Dalam arahan Anda: tidak boleh ada kata sandi, nomor kartu kredit, rekam medis, atau dokumen internal perusahaan. Jika Anda perlu menangani informasi sensitif, pertimbangkan mekanisme anonimisasi, lingkungan tertutup, atau solusi lokal. tata kelola yang diperkuat.
Lindungi akun Anda dengan kata sandi yang kuat dan otentikasi dua langkah (2FA)Akses tidak sah ke akun Anda akan mengekspos riwayat penelusuran, berkas unggahan, dan preferensi Anda, yang dapat digunakan untuk serangan rekayasa sosial yang sangat kredibel atau untuk penjualan data ilegal.
Jika platform mengizinkannya, nonaktifkan riwayat obrolan Atau gunakan modalitas sementara. Langkah sederhana ini mengurangi risiko Anda jika terjadi pelanggaran, seperti yang ditunjukkan oleh insiden-insiden sebelumnya yang melibatkan layanan AI populer.
Jangan percaya begitu saja pada jawabannya. Model bisa berhalusinasi, bias, atau dimanipulasi melalui injeksi perintah berbahaya, yang menyebabkan instruksi yang salah, data palsu, atau ekstraksi informasi sensitif. Untuk masalah hukum, medis, atau keuangan, bandingkan dengan sumber resmi.
Berhati-hatilah dengan tautan, file, dan kode yang dikirimkan oleh AI. Mungkin ada konten berbahaya atau kerentanan yang sengaja diperkenalkan (keracunan data). Verifikasi URL sebelum mengklik dan pindai file dengan solusi keamanan tepercaya.
Ketidakpercayaan ekstensi dan plugin asal usulnya meragukan. Ada banyak sekali add-on berbasis AI, dan tidak semuanya dapat diandalkan; pasang hanya yang penting dari sumber tepercaya untuk meminimalkan risiko malware.
Di lingkungan korporat, tertibkan proses adopsi. Definisikan Kebijakan tata kelola khusus AIHal ini membatasi pengumpulan data pada apa yang diperlukan, memerlukan persetujuan yang diinformasikan, mengaudit pemasok dan kumpulan data (rantai pasokan), dan menerapkan kontrol teknis (seperti DLP, pemantauan lalu lintas ke aplikasi AI, dan kontrol akses granular).
Kesadaran adalah bagian dari perisai: bentuk tim Anda dalam risiko AI, phishing tingkat lanjut, dan penggunaan yang etis. Inisiatif industri yang berbagi informasi tentang insiden AI, seperti yang didorong oleh organisasi khusus, mendorong pembelajaran berkelanjutan dan pertahanan yang lebih baik.
Konfigurasikan privasi dan aktivitas di Google Gemini
Jika Anda menggunakan Gemini, masuk ke akun Anda dan centang “Aktivitas di Aplikasi GeminiDi sana Anda dapat melihat dan menghapus interaksi, mengubah periode penghapusan otomatis (default 18 bulan, dapat disesuaikan menjadi 3 atau 36 bulan, atau tidak terbatas) dan memutuskan apakah interaksi tersebut digunakan untuk meningkatkan AI Google.
Penting untuk diketahui bahwa, bahkan dengan menyimpan yang dinonaktifkan, Percakapan Anda digunakan untuk merespons dan menjaga keamanan sistem, dengan dukungan dari peninjau manusia. Percakapan yang telah ditinjau (dan data terkait seperti bahasa, jenis perangkat, atau perkiraan lokasi) dapat disimpan. sampai tiga tahun.
Di ponsel, Periksa izin aplikasiLokasi, mikrofon, kamera, kontak, atau akses ke konten di layar. Jika Anda mengandalkan fitur dikte atau aktivasi suara, ingatlah bahwa sistem mungkin diaktifkan secara tidak sengaja oleh suara yang mirip dengan kata kunci; tergantung pada pengaturan, cuplikan ini dapat untuk digunakan untuk meningkatkan model dan mengurangi aktivasi yang tidak diinginkan.
Jika Anda menghubungkan Gemini dengan aplikasi lain (Google atau pihak ketiga), perlu diingat bahwa masing-masing aplikasi memproses data sesuai kebijakannya sendiri. kebijakan mereka sendiriDalam fitur seperti Canvas, pembuat aplikasi dapat melihat dan menyimpan apa yang Anda bagikan, dan siapa pun yang memiliki tautan publik dapat melihat atau mengedit data tersebut: bagikan hanya dengan aplikasi tepercaya.
Di wilayah yang berlaku, peningkatan ke pengalaman tertentu mungkin Impor riwayat panggilan dan pesan Dari Aktivitas Web dan Aplikasi Anda hingga aktivitas khusus Gemini, untuk meningkatkan saran (misalnya, kontak). Jika Anda tidak menginginkannya, sesuaikan kontrol sebelum melanjutkan.
Penggunaan massal, regulasi, dan tren “AI bayangan”
Adopsi sangat besar: laporan terbaru menunjukkan bahwa Sebagian besar organisasi sudah menerapkan model AIMeski begitu, banyak tim kurang memiliki kematangan yang memadai dalam hal keamanan dan tata kelola, terutama di sektor dengan regulasi ketat atau memiliki volume data sensitif yang besar.
Studi di sektor bisnis mengungkapkan kekurangan: persentase organisasi di Spanyol sangat tinggi Tidak siap untuk melindungi lingkungan bertenaga AIdan sebagian besar tidak memiliki praktik penting untuk melindungi model cloud, aliran data, dan infrastruktur. Bersamaan dengan itu, tindakan regulasi semakin ketat dan ancaman baru bermunculan. sanksi atas ketidakpatuhan GDPR dan peraturan setempat.
Sementara itu, fenomena bayangan AI Ini semakin berkembang: karyawan menggunakan asisten eksternal atau akun pribadi untuk tugas-tugas pekerjaan, sehingga data internal terekspos tanpa kontrol keamanan atau kontrak dengan penyedia layanan. Respons yang efektif bukanlah melarang semuanya, melainkan memungkinkan penggunaan yang aman dalam lingkungan yang terkendali, dengan platform yang disetujui dan pemantauan arus informasi.
Di sisi konsumen, pemasok utama sedang menyesuaikan kebijakan mereka. Perubahan terbaru menjelaskan, misalnya, bagaimana aktivitas dengan Gemini untuk “meningkatkan layanan”menawarkan opsi seperti Percakapan Sementara dan kontrol aktivitas dan kustomisasi. Pada saat yang sama, perusahaan perpesanan menekankan bahwa Obrolan pribadi tetap tidak dapat diakses ke AI secara default, meskipun mereka menyarankan agar tidak mengirimkan informasi ke AI yang tidak ingin diketahui perusahaan.
Terdapat pula layanan pemasyarakatan publik: transfer file Mereka mengklarifikasi bahwa mereka tidak menggunakan konten pengguna untuk melatih model atau menjualnya kepada pihak ketiga, setelah menyuarakan kekhawatiran tentang perubahan ketentuan. Tekanan sosial dan hukum ini mendorong mereka untuk lebih jelas dan memberi pengguna lebih banyak kontrol.
Melihat ke masa depan, perusahaan teknologi sedang mencari cara untuk mengurangi ketergantungan pada data sensitifModel yang dapat meningkatkan dirinya sendiri, prosesor yang lebih baik, dan pembangkitan data sintetis. Kemajuan ini menjanjikan untuk mengatasi kekurangan data dan masalah persetujuan, meskipun para ahli memperingatkan risiko yang muncul jika AI mempercepat kemampuannya sendiri dan diterapkan pada bidang-bidang seperti intrusi atau manipulasi siber.
AI merupakan pertahanan sekaligus ancaman. Platform keamanan sudah mengintegrasikan model untuk mendeteksi dan merespons lebih cepat, sementara penyerang menggunakan LLM untuk phishing persuasif dan deepfakePersaingan ini membutuhkan investasi berkelanjutan dalam pengendalian teknis, evaluasi pemasok, audit berkelanjutan, dan pembaruan peralatan yang konstan.
Asisten AI mengumpulkan berbagai sinyal tentang Anda, mulai dari konten yang Anda ketik hingga data perangkat, penggunaan, dan lokasi. Sebagian informasi ini dapat ditinjau oleh manusia atau dibagikan dengan pihak ketiga, tergantung pada layanannya. Jika Anda ingin memanfaatkan AI tanpa mengorbankan privasi, kombinasikan penyempurnaan (riwayat, izin, penghapusan otomatis), kehati-hatian operasional (jangan bagikan data sensitif, verifikasi tautan dan berkas, batasi ekstensi berkas), perlindungan akses (kata sandi yang kuat dan 2FA), dan pemantauan aktif terhadap perubahan kebijakan dan fitur baru yang dapat memengaruhi privasi Anda. bagaimana data Anda digunakan dan disimpan.
Bergairah tentang teknologi sejak dia masih kecil. Saya senang mengetahui perkembangan terkini di sektor ini dan, yang terpenting, mengomunikasikannya. Itulah sebabnya saya telah mendedikasikan diri pada komunikasi di situs web teknologi dan video game selama bertahun-tahun. Anda dapat menemukan saya menulis tentang Android, Windows, MacOS, iOS, Nintendo, atau topik terkait lainnya yang terlintas dalam pikiran Anda.