- ຜູ້ຊ່ວຍ AI ເກັບຮັກສາເນື້ອຫາ, ຕົວລະບຸ, ການນໍາໃຊ້, ສະຖານທີ່, ແລະຂໍ້ມູນອຸປະກອນ, ດ້ວຍການກວດສອບຈາກມະນຸດໃນບາງກໍລະນີ.
- ມີຄວາມສ່ຽງຕະຫຼອດວົງຈອນຊີວິດທັງຫມົດ (ການກິນ, ການຝຶກອົບຮົມ, inference ແລະການສະຫມັກ), ລວມທັງການສັກຢາທັນທີແລະການຮົ່ວໄຫຼ.
- GDPR, AI Act ແລະກອບເຊັ່ນ NIST AI RMF ຮຽກຮ້ອງໃຫ້ມີຄວາມໂປ່ງໃສ, ການຫຼຸດຜ່ອນແລະຄວບຄຸມອັດຕາສ່ວນກັບຄວາມສ່ຽງ.
- ຕັ້ງຄ່າກິດຈະກໍາ, ການອະນຸຍາດ, ແລະການລຶບອັດຕະໂນມັດ; ປົກປ້ອງຂໍ້ມູນລະອຽດອ່ອນ, ໃຊ້ 2FA, ແລະທົບທວນນະໂຍບາຍ ແລະຜູ້ໃຫ້ບໍລິການ.

ປັນຍາທຽມໄດ້ຫມົດໄປຈາກສັນຍາກັບປົກກະຕິໃນເວລາບັນທຶກ, ແລະດ້ວຍມັນ, ຄວາມສົງໃສສະເພາະຫຼາຍໄດ້ເກີດຂື້ນ: ຜູ້ຊ່ວຍ AI ເກັບເອົາຂໍ້ມູນຫຍັງແດ່?ເຂົາເຈົ້າໃຊ້ພວກມັນແນວໃດ ແລະສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໄດ້ເພື່ອຮັກສາຂໍ້ມູນຂອງພວກເຮົາໃຫ້ປອດໄພ. ຖ້າທ່ານໃຊ້ chatbots, ຜູ້ຊ່ວຍຂອງຕົວທ່ອງເວັບ, ຫຼືຮູບແບບການຜະລິດ, ມັນເປັນຄວາມຄິດທີ່ດີທີ່ຈະຄວບຄຸມຄວາມເປັນສ່ວນຕົວຂອງເຈົ້າໄວເທົ່າທີ່ຈະໄວໄດ້.
ນອກເຫນືອຈາກການເປັນເຄື່ອງມືທີ່ເປັນປະໂຫຍດຢ່າງຫຼວງຫຼາຍ, ລະບົບເຫຼົ່ານີ້ໃຫ້ຂໍ້ມູນຂະຫນາດໃຫຍ່. ປະລິມານ, ຕົ້ນກໍາເນີດ, ແລະການປິ່ນປົວຂອງຂໍ້ມູນນັ້ນ ພວກເຂົາເຈົ້າແນະນໍາຄວາມສ່ຽງໃຫມ່: ຈາກ inferring ລັກສະນະສ່ວນບຸກຄົນກັບການເປີດເຜີຍໂດຍບັງເອີນຂອງເນື້ອຫາທີ່ລະອຽດອ່ອນ. ທີ່ນີ້ເຈົ້າຈະພົບເຫັນ, ລາຍລະອຽດແລະໂດຍບໍ່ມີການຕີອ້ອມພຸ່ມໄມ້, ສິ່ງທີ່ເຂົາເຈົ້າຈັບ, ເປັນຫຍັງເຂົາເຈົ້າເຮັດມັນ, ສິ່ງທີ່ກົດຫມາຍວ່າດ້ວຍ, ແລະ. ວິທີປົກປ້ອງບັນຊີ ແລະການເຄື່ອນໄຫວຂອງເຈົ້າ. ໃຫ້ຮຽນຮູ້ທັງຫມົດກ່ຽວກັບ ຂໍ້ມູນໃດແດ່ທີ່ຜູ້ຊ່ວຍ AI ເກັບກຳ ແລະວິທີການປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງທ່ານ.
ຂໍ້ມູນໃດແດ່ທີ່ຜູ້ຊ່ວຍ AI ເກັບກໍາຕົວຈິງ?
ຜູ້ຊ່ວຍທີ່ທັນສະໄຫມດໍາເນີນການຫຼາຍກ່ວາພຽງແຕ່ຄໍາຖາມຂອງທ່ານ. ຂໍ້ມູນການຕິດຕໍ່, ຕົວລະບຸ, ການນໍາໃຊ້ແລະເນື້ອໃນ ປົກກະຕິແລ້ວເຫຼົ່ານີ້ແມ່ນລວມຢູ່ໃນປະເພດມາດຕະຖານ. ພວກເຮົາກໍາລັງເວົ້າກ່ຽວກັບຊື່ແລະອີເມລ໌, ແຕ່ຍັງຢູ່ IP, ຂໍ້ມູນອຸປະກອນ, ບັນທຶກການໂຕ້ຕອບ, ຄວາມຜິດພາດ, ແລະ, ແນ່ນອນ, ເນື້ອຫາທີ່ທ່ານສ້າງຫຼືອັບໂຫລດ (ຂໍ້ຄວາມ, ໄຟລ໌, ຮູບພາບ, ຫຼືການເຊື່ອມຕໍ່ສາທາລະນະ).
ພາຍໃນລະບົບນິເວດຂອງ Google, ແຈ້ງການຄວາມເປັນສ່ວນຕົວຂອງ Gemini ອະທິບາຍຢ່າງຖືກຕ້ອງກ່ຽວກັບສິ່ງທີ່ມັນເກັບກໍາ ຂໍ້ມູນຈາກແອັບພລິເຄຊັນທີ່ເຊື່ອມຕໍ່ (ຕົວຢ່າງ: ປະຫວັດການຊອກຫາ ຫຼື YouTube, ບໍລິບົດຂອງ Chrome), ຂໍ້ມູນອຸປະກອນ ແລະບຣາວເຊີ (ປະເພດ, ການຕັ້ງຄ່າ, ຕົວລະບຸ), ການວັດແທກປະສິດທິພາບ ແລະການແກ້ໄຂຂໍ້ບົກພ່ອງ, ແລະແມ້ກະທັ້ງການອະນຸຍາດລະບົບໃນອຸປະກອນມືຖື (ເຊັ່ນ: ການເຂົ້າເຖິງລາຍຊື່ຜູ້ຕິດຕໍ່, ບັນທຶກການໂທ ແລະຂໍ້ຄວາມ ຫຼືເນື້ອຫາໃນໜ້າຈໍ) ເມື່ອໄດ້ຮັບອະນຸຍາດຈາກຜູ້ໃຊ້.
ພວກເຂົາເຈົ້າຍັງຈັດການກັບ ຂໍ້ມູນສະຖານທີ່ (ສະຖານທີ່ອຸປະກອນໂດຍປະມານ, ທີ່ຢູ່ IP, ຫຼືທີ່ຢູ່ທີ່ບັນທຶກໄວ້ໃນບັນຊີ) ແລະລາຍລະອຽດການສະຫມັກຖ້າທ່ານໃຊ້ແຜນຈ່າຍ. ນອກຈາກນັ້ນ, ຕໍ່ໄປນີ້ແມ່ນເກັບຮັກສາໄວ້: ເນື້ອຫາຂອງຕົນເອງທີ່ຕົວແບບສ້າງ (ຂໍ້ຄວາມ, ລະຫັດ, ສຽງ, ຮູບພາບ ຫຼືບົດສະຫຼຸບ), ບາງສິ່ງບາງຢ່າງທີ່ສໍາຄັນທີ່ຈະເຂົ້າໃຈຮອຍຕີນທີ່ທ່ານອອກໃນເວລາທີ່ພົວພັນກັບເຄື່ອງມືເຫຼົ່ານີ້.
ຄວນສັງເກດວ່າການເກັບກໍາຂໍ້ມູນບໍ່ຈໍາກັດພຽງແຕ່ການຝຶກອົບຮົມ: ຜູ້ເຂົ້າຮ່ວມສາມາດບັນທຶກກິດຈະກໍາໃນເວລາຈິງ ໃນລະຫວ່າງການນໍາໃຊ້ (ສໍາລັບການຍົກຕົວຢ່າງ, ໃນເວລາທີ່ທ່ານອີງໃສ່ການຂະຫຍາຍຫຼື plugins), ນີ້ລວມທັງ telemetry ແລະກິດຈະກໍາການນໍາໃຊ້. ນີ້ອະທິບາຍວ່າເປັນຫຍັງການຄວບຄຸມການອະນຸຍາດແລະການທົບທວນຄືນການຕັ້ງຄ່າກິດຈະກໍາແມ່ນສໍາຄັນ.
ພວກເຂົາໃຊ້ຂໍ້ມູນນັ້ນເພື່ອຫຍັງ ແລະໃຜສາມາດເຫັນມັນໄດ້?
ບໍລິສັດມັກຈະຮຽກຮ້ອງຈຸດປະສົງທີ່ກວ້າງຂວາງ ແລະເກີດຂຶ້ນຊ້ຳໆ: ເພື່ອສະຫນອງ, ຮັກສາແລະປັບປຸງການບໍລິການ, ປັບແຕ່ງປະສົບການສ່ວນບຸກຄົນ, ແລະພັດທະນາຄຸນສົມບັດໃຫມ່ເພື່ອຕິດຕໍ່ສື່ສານກັບທ່ານ, ວັດແທກປະສິດທິພາບ, ແລະປົກປ້ອງຜູ້ໃຊ້ແລະເວທີ. ທັງໝົດນີ້ຍັງຂະຫຍາຍໄປເຖິງເທັກໂນໂລຍີການຮຽນຮູ້ຂອງເຄື່ອງຈັກ ແລະຮູບແບບການຜະລິດເອງ.
ພາກສ່ວນທີ່ລະອຽດອ່ອນຂອງຂະບວນການແມ່ນ ການທົບທວນຄືນຂອງມະນຸດຜູ້ຂາຍຕ່າງໆຮັບຮູ້ວ່າພະນັກງານພາຍໃນຫຼືຜູ້ໃຫ້ບໍລິການທົບທວນຄືນຕົວຢ່າງການໂຕ້ຕອບເພື່ອປັບປຸງຄວາມປອດໄພແລະຄຸນນະພາບ. ເພາະສະນັ້ນ, ຄໍາແນະນໍາທີ່ສອດຄ່ອງ: ຫຼີກເວັ້ນການລວມເອົາຂໍ້ມູນທີ່ເປັນຄວາມລັບທີ່ເຈົ້າບໍ່ຕ້ອງການໃຫ້ບຸກຄົນໃດຫນຶ່ງເຫັນຫຼືຈະຖືກນໍາໃຊ້ເພື່ອປັບປຸງຕົວແບບ.
ໃນນະໂຍບາຍທີ່ຮູ້ຈັກ, ບາງບໍລິການຊີ້ໃຫ້ເຫັນວ່າພວກເຂົາບໍ່ໄດ້ແບ່ງປັນຂໍ້ມູນບາງຢ່າງສໍາລັບຈຸດປະສົງການໂຄສະນາ, ເຖິງແມ່ນວ່າ ແມ່ນແລ້ວ, ພວກເຂົາສາມາດໃຫ້ຂໍ້ມູນກັບເຈົ້າຫນ້າທີ່. ພາຍໃຕ້ຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ. ຄົນອື່ນ, ໂດຍທໍາມະຊາດຂອງເຂົາເຈົ້າ, ແບ່ງປັນກັບຜູ້ໂຄສະນາຫຼືຄູ່ຮ່ວມງານ ຕົວລະບຸແລະສັນຍານລວມສໍາລັບການວິເຄາະແລະການແບ່ງສ່ວນ, ການເປີດປະຕູສູ່ການສ້າງໂປຣໄຟລ໌.
ການປິ່ນປົວຍັງປະກອບມີ, ການຮັກສາໄວ້ສໍາລັບໄລຍະເວລາທີ່ກໍານົດໄວ້ລ່ວງຫນ້າຕົວຢ່າງ, ຜູ້ໃຫ້ບໍລິການບາງຄົນກໍານົດໄລຍະເວລາການລຶບອັດຕະໂນມັດເລີ່ມຕົ້ນຂອງ 18 ເດືອນ (ປັບເປັນ 3, 36, ຫຼືບໍ່ມີກໍານົດ), ແລະຮັກສາການສົນທະນາທີ່ທົບທວນຄືນສໍາລັບໄລຍະເວລາທີ່ຍາວກວ່າສໍາລັບຈຸດປະສົງດ້ານຄຸນນະພາບແລະຄວາມປອດໄພ. ມັນສົມຄວນທີ່ຈະທົບທວນໄລຍະເວລາການເກັບຮັກສາແລະເປີດໃຊ້ການລຶບອັດຕະໂນມັດຖ້າທ່ານຕ້ອງການຫຼຸດຜ່ອນຮອຍດິຈິຕອນຂອງທ່ານ.
ຄວາມສ່ຽງດ້ານຄວາມເປັນສ່ວນຕົວຕະຫຼອດວົງຈອນຊີວິດ AI

ຄວາມເປັນສ່ວນຕົວບໍ່ໄດ້ຢູ່ໃນຈຸດດຽວ, ແຕ່ຕະຫຼອດລະບົບຕ່ອງໂສ້ທັງຫມົດ: ການປ້ອນຂໍ້ມູນ, ການຝຶກອົບຮົມ, inference, ແລະຊັ້ນຄໍາຮ້ອງສະຫມັກໃນການເກັບກໍາຂໍ້ມູນມະຫາຊົນ, ຂໍ້ມູນທີ່ລະອຽດອ່ອນສາມາດຖືກລວມເຂົ້າໂດຍບໍ່ໄດ້ຕັ້ງໃຈໂດຍບໍ່ມີການຍິນຍອມທີ່ເຫມາະສົມ; ໃນການຝຶກອົບຮົມ, ມັນງ່າຍສໍາລັບການຄາດຄະເນການນໍາໃຊ້ຕົ້ນສະບັບທີ່ຈະເກີນ; ໃນລະຫວ່າງການ inference, ແບບສາມາດ infer ລັກສະນະສ່ວນບຸກຄົນ ເລີ່ມຕົ້ນຈາກສັນຍານເລັກນ້ອຍທີ່ເບິ່ງຄືວ່າ; ແລະໃນແອັບພລິເຄຊັນ, APIs ຫຼືການໂຕ້ຕອບເວັບແມ່ນເປົ້າຫມາຍທີ່ດຶງດູດຜູ້ໂຈມຕີ.
ດ້ວຍລະບົບການຜະລິດ, ຄວາມສ່ຽງເພີ່ມຂຶ້ນ (ຕົວຢ່າງ, ເຄື່ອງຫຼິ້ນ AI). ຊຸດຂໍ້ມູນທີ່ສະກັດມາຈາກອິນເຕີເນັດໂດຍບໍ່ມີການອະນຸຍາດຢ່າງຊັດເຈນ ພວກມັນອາດມີຂໍ້ມູນສ່ວນຕົວ, ແລະການກະຕຸ້ນເຕືອນທີ່ເປັນອັນຕະລາຍບາງຢ່າງ (ການສີດທັນທີ) ພະຍາຍາມໝູນໃຊ້ຕົວແບບເພື່ອກັ່ນຕອງເນື້ອຫາທີ່ລະອຽດອ່ອນ ຫຼືປະຕິບັດຄຳແນະນຳອັນຕະລາຍ. ໃນທາງກົງກັນຂ້າມ, ຜູ້ໃຊ້ຫຼາຍຄົນ ພວກເຂົາເຈົ້າວາງຂໍ້ມູນລັບ ໂດຍບໍ່ມີການພິຈາລະນາວ່າພວກມັນສາມາດຖືກເກັບໄວ້ຫຼືໃຊ້ເພື່ອປັບຕົວຮຸ່ນໃນອະນາຄົດ.
ການຄົ້ນຄວ້າທາງວິຊາການໄດ້ນໍາເອົາບັນຫາສະເພາະໄປສູ່ຄວາມສະຫວ່າງ. ການວິເຄາະຫຼ້າສຸດກ່ຽວກັບ ຜູ້ຊ່ວຍຂອງຕົວທ່ອງເວັບ ມັນໄດ້ກວດພົບການປະຕິບັດການຕິດຕາມແລະການໂຄສະນາທີ່ກວ້າງຂວາງ, ດ້ວຍການສົ່ງເນື້ອຫາຄົ້ນຫາ, ຂໍ້ມູນແບບຟອມທີ່ລະອຽດອ່ອນ, ແລະທີ່ຢູ່ IP ໄປຫາເຄື່ອງແມ່ຂ່າຍຂອງຜູ້ໃຫ້ບໍລິການ. ຍິ່ງໄປກວ່ານັ້ນ, ມັນສະແດງໃຫ້ເຫັນຄວາມສາມາດໃນການສົມມຸດອາຍຸ, ເພດ, ລາຍໄດ້, ແລະຄວາມສົນໃຈ, ດ້ວຍການປັບແຕ່ງສ່ວນບຸກຄົນທີ່ຍັງຄົງຄ້າງຢູ່ໃນກອງປະຊຸມຕ່າງໆ; ໃນການສຶກສານັ້ນ, ພຽງແຕ່ຫນຶ່ງການບໍລິການສະແດງໃຫ້ເຫັນບໍ່ມີຫຼັກຖານຂອງ profileing.
ປະຫວັດສາດຂອງເຫດການເຕືອນພວກເຮົາວ່າຄວາມສ່ຽງບໍ່ແມ່ນທິດສະດີ: ການລະເມີດຄວາມປອດໄພ ພວກເຂົາເຈົ້າໄດ້ເປີດເຜີຍປະຫວັດການສົນທະນາຫຼື metadata ຂອງຜູ້ໃຊ້, ແລະຜູ້ໂຈມຕີກໍາລັງໃຊ້ເຕັກນິກການສ້າງແບບຈໍາລອງເພື່ອສະກັດຂໍ້ມູນການຝຶກອົບຮົມ. ເພື່ອເຮັດໃຫ້ບັນຫາຮ້າຍແຮງກວ່າເກົ່າ, ອັດຕະໂນມັດທໍ່ AI ມັນເຮັດໃຫ້ມັນຍາກທີ່ຈະກວດພົບບັນຫາຄວາມເປັນສ່ວນຕົວຖ້າການປົກປ້ອງບໍ່ໄດ້ຖືກອອກແບບມາຕັ້ງແຕ່ເລີ່ມຕົ້ນ.
ກົດໝາຍ ແລະ ກອບວຽກເວົ້າແນວໃດ?
ປະເທດສ່ວນໃຫຍ່ມີຢູ່ແລ້ວ ກົດລະບຽບຄວາມເປັນສ່ວນຕົວ ໃນຜົນບັງຄັບໃຊ້, ແລະເຖິງແມ່ນວ່າບໍ່ແມ່ນທັງຫມົດແມ່ນສະເພາະກັບ AI, ພວກເຂົາໃຊ້ກັບລະບົບໃດໆທີ່ປະມວນຜົນຂໍ້ມູນສ່ວນບຸກຄົນ. ໃນເອີຣົບ, ໄດ້ RGPD ມັນຮຽກຮ້ອງໃຫ້ມີຄວາມຖືກຕ້ອງທາງດ້ານກົດຫມາຍ, ຄວາມໂປ່ງໃສ, ການຫຼຸດຜ່ອນ, ການຈໍາກັດຈຸດປະສົງ, ແລະຄວາມປອດໄພ; ນອກຈາກນັ້ນ, ໄດ້ ກົດໝາຍວ່າດ້ວຍ AI ເອີຣົບແນະນໍາປະເພດຄວາມສ່ຽງ, ຫ້າມການປະຕິບັດທີ່ມີຜົນກະທົບສູງ (ເຊັ່ນ: ຄະແນນສັງຄົມ ສາທາລະນະ) ແລະວາງຂໍ້ກໍານົດຢ່າງເຂັ້ມງວດກ່ຽວກັບລະບົບທີ່ມີຄວາມສ່ຽງສູງ.
ໃນສະຫະລັດ, ກົດລະບຽບຂອງລັດເຊັ່ນ: CCPA ຫຼືກົດຫມາຍ Texas ພວກເຂົາເຈົ້າໃຫ້ສິດທິໃນການເຂົ້າເຖິງ, ລຶບ, ແລະເລືອກອອກຈາກການຂາຍຂໍ້ມູນ, ໃນຂະນະທີ່ການລິເລີ່ມເຊັ່ນ: ກົດຫມາຍ Utah. ພວກເຂົາຮຽກຮ້ອງໃຫ້ມີການແຈ້ງເຕືອນທີ່ຊັດເຈນເມື່ອຜູ້ໃຊ້ໂຕ້ຕອບກັບ ກັບລະບົບການຜະລິດ. ຊັ້ນມາດຕະຖານເຫຼົ່ານີ້ຢູ່ຮ່ວມກັນກັບຄວາມຄາດຫວັງຂອງສັງຄົມ: ການສໍາຫຼວດຄວາມຄິດເຫັນສະແດງໃຫ້ເຫັນ a ຄວາມບໍ່ໄວ້ວາງໃຈທີ່ໂດດເດັ່ນຕໍ່ກັບການນໍາໃຊ້ທີ່ຮັບຜິດຊອບ ຂໍ້ມູນຂອງບໍລິສັດ, ແລະຄວາມແຕກຕ່າງກັນລະຫວ່າງຄວາມຮັບຮູ້ຂອງຕົນເອງຂອງຜູ້ໃຊ້ແລະພຶດຕິກໍາຕົວຈິງຂອງພວກເຂົາ (ຕົວຢ່າງ, ການຍອມຮັບນະໂຍບາຍໂດຍບໍ່ມີການອ່ານມັນ).
ການຄຸ້ມຄອງຄວາມສ່ຽງພື້ນຖານ, ກອບຂອງ NIST (AI RMF) ສະເໜີ 4 ໜ້າທີ່ສືບຕໍ່ຄື: ຄຸ້ມຄອງ (ນະໂຍບາຍທີ່ຮັບຜິດຊອບ ແລະ ກວດກາ), ແຜນທີ່ (ເຂົ້າໃຈສະພາບການ ແລະ ຜົນກະທົບ), ວັດແທກ (ການປະເມີນ ແລະ ຕິດຕາມຄວາມສ່ຽງດ້ວຍການວັດແທກ), ແລະ ຄຸ້ມຄອງ (ຈັດລໍາດັບຄວາມສໍາຄັນ ແລະ ຫຼຸດຜ່ອນ). ວິທີການນີ້ ຊ່ວຍປັບການຄວບຄຸມ ອີງຕາມລະດັບຄວາມສ່ຽງຂອງລະບົບ.
ໃຜເກັບໄດ້ຫຼາຍທີ່ສຸດ: X-ray ຂອງ chatbots ທີ່ນິຍົມຫຼາຍທີ່ສຸດ
ການປຽບທຽບທີ່ຜ່ານມາວາງຕົວຊ່ວຍທີ່ແຕກຕ່າງກັນຢູ່ໃນສະເປກທຣັມເກັບກຳຂໍ້ມູນ. Gemini ຂອງ Google ເປັນອັນດັບຫນຶ່ງ ໂດຍການເກັບກໍາຈໍານວນທີ່ໃຫຍ່ທີ່ສຸດຂອງຈຸດຂໍ້ມູນທີ່ເປັນເອກະລັກໃນທົ່ວປະເພດຕ່າງໆ (ລວມທັງການຕິດຕໍ່ມືຖື, ຖ້າມີການອະນຸຍາດ), ບາງສິ່ງບາງຢ່າງທີ່ບໍ່ຄ່ອຍຈະປາກົດຢູ່ໃນຄູ່ແຂ່ງອື່ນໆ.
ໃນລະດັບກາງ, ວິທີແກ້ໄຂປະກອບມີເຊັ່ນ: Claude, Copilot, DeepSeek, ChatGPT ແລະຄວາມສັບສົນ, ມີລະຫວ່າງສິບຫາສິບສາມປະເພດຂອງຂໍ້ມູນ, ແຕກຕ່າງກັນລະຫວ່າງການຕິດຕໍ່, ສະຖານທີ່, ຕົວລະບຸ, ເນື້ອໃນ, ປະຫວັດສາດ, ການວິນິດໄສ, ການນໍາໃຊ້ແລະການຊື້. ແກຣນ ມັນຕັ້ງຢູ່ໃນສ່ວນຕ່ໍາທີ່ມີຊຸດສັນຍານທີ່ຈໍາກັດຫຼາຍ.
ຍັງມີຄວາມແຕກຕ່າງໃນ ການນໍາໃຊ້ຕໍ່ມາມັນໄດ້ຖືກບັນທຶກໄວ້ວ່າບາງບໍລິການແບ່ງປັນຕົວລະບຸບາງຢ່າງ (ເຊັ່ນ: ອີເມວທີ່ຖືກເຂົ້າລະຫັດ) ແລະສັນຍານສໍາລັບການແບ່ງສ່ວນກັບຜູ້ໂຄສະນາແລະຄູ່ຮ່ວມງານທຸລະກິດ, ໃນຂະນະທີ່ຄົນອື່ນບອກວ່າພວກເຂົາບໍ່ໄດ້ໃຊ້ຂໍ້ມູນເພື່ອຈຸດປະສົງການໂຄສະນາຫຼືຂາຍມັນ, ເຖິງແມ່ນວ່າພວກເຂົາສະຫງວນສິດທີ່ຈະຕອບສະຫນອງຄໍາຮ້ອງຂໍທາງກົດຫມາຍຫຼືໃຊ້ມັນສໍາລັບ ປັບປຸງລະບົບ, ເວັ້ນເສຍແຕ່ວ່າຜູ້ໃຊ້ຮ້ອງຂໍການລຶບ.
ຈາກທັດສະນະຂອງຜູ້ໃຊ້ສຸດທ້າຍ, ນີ້ແປເປັນຄໍາແນະນໍາທີ່ຊັດເຈນ: ທົບທວນນະໂຍບາຍຂອງຜູ້ໃຫ້ບໍລິການແຕ່ລະຄົນປັບການອະນຸຍາດຂອງ app ແລະມີສະຕິຕັດສິນໃຈຂໍ້ມູນທີ່ທ່ານໃຫ້ໄປໃນແຕ່ລະສະພາບການ, ໂດຍສະເພາະແມ່ນຖ້າຫາກວ່າທ່ານຈະອັບໄຟລ໌ຫຼືແບ່ງປັນເນື້ອໃນທີ່ລະອຽດອ່ອນ.
ການປະຕິບັດທີ່ດີທີ່ສຸດທີ່ຈໍາເປັນເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງທ່ານ
ກ່ອນອື່ນໝົດ, ກຳນົດການຕັ້ງຄ່າຢ່າງລະມັດລະວັງສຳລັບຜູ້ຊ່ວຍແຕ່ລະຄົນ. ຄົ້ນຫາສິ່ງທີ່ຖືກເກັບໄວ້, ດົນປານໃດ, ແລະເພື່ອຈຸດປະສົງໃດ.ແລະເປີດໃຊ້ການລຶບອັດຕະໂນມັດຖ້າມີ. ທົບທວນນະໂຍບາຍເປັນໄລຍະ, ຍ້ອນວ່າພວກເຂົາປ່ຽນແປງເລື້ອຍໆແລະອາດຈະປະກອບມີທາງເລືອກການຄວບຄຸມໃຫມ່.
ຫຼີກເວັ້ນການແບ່ງປັນ ຂໍ້ມູນສ່ວນຕົວ ແລະຂໍ້ມູນທີ່ລະອຽດອ່ອນ ໃນການເຕືອນຂອງທ່ານ: ບໍ່ມີລະຫັດຜ່ານ, ເລກບັດເຄຣດິດ, ບັນທຶກທາງການແພດ, ຫຼືເອກະສານຂອງບໍລິສັດພາຍໃນ. ຖ້າທ່ານຕ້ອງການຈັດການຂໍ້ມູນທີ່ລະອຽດອ່ອນ, ພິຈາລະນາກົນໄກການປິດບັງຊື່, ສະພາບແວດລ້ອມທີ່ປິດ, ຫຼືການແກ້ໄຂໃນພື້ນທີ່. ເພີ່ມທະວີການປົກຄອງ.
ປົກປ້ອງບັນຊີຂອງທ່ານດ້ວຍລະຫັດຜ່ານທີ່ເຂັ້ມແຂງ ແລະ ການພິສູດຢືນຢັນສອງຂັ້ນຕອນ (2FA)ການເຂົ້າເຖິງບັນຊີຂອງທ່ານໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດເປີດເຜີຍປະຫວັດສາດການຊອກຫາຂອງທ່ານ, ໄຟລ໌ທີ່ອັບໂຫຼດ, ແລະຄວາມມັກ, ທີ່ສາມາດຖືກນໍາໃຊ້ສໍາລັບການໂຈມຕີວິສະວະກໍາສັງຄົມທີ່ຫນ້າເຊື່ອຖືສູງຫຼືສໍາລັບການຂາຍຂໍ້ມູນທີ່ຜິດກົດຫມາຍ.
ຖ້າເວທີອະນຸຍາດໃຫ້ມັນ, ປິດການນຳໃຊ້ປະຫວັດການສົນທະນາ ຫຼືໃຊ້ວິທີການຊົ່ວຄາວ. ມາດຕະການທີ່ງ່າຍດາຍນີ້ຊ່ວຍຫຼຸດຜ່ອນການເປີດເຜີຍຂອງທ່ານໃນກໍລະນີທີ່ມີການລະເມີດ, ດັ່ງທີ່ສະແດງໃຫ້ເຫັນໂດຍເຫດການທີ່ຜ່ານມາທີ່ກ່ຽວຂ້ອງກັບການບໍລິການ AI ທີ່ນິຍົມ.
ຢ່າເຊື່ອຄຳຕອບໂດຍຕາບອດ. ຕົວແບບສາມາດ ສ້າງຄວາມຫຼົງໄຫຼ, ມີຄວາມລຳອຽງ, ຫຼືຖືກໝູນໃຊ້ ໂດຍຜ່ານການສັກຢາກະຕຸ້ນເຕືອນທີ່ເປັນອັນຕະລາຍ, ເຊິ່ງນໍາໄປສູ່ຄໍາແນະນໍາທີ່ຜິດພາດ, ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ຫຼືການສະກັດເອົາຂໍ້ມູນທີ່ລະອຽດອ່ອນ. ສໍາລັບທາງດ້ານກົດໝາຍ, ທາງການແພດ, ຫຼືເລື່ອງການເງິນ, ກົງກັນຂ້າມກັບ ແຫຼ່ງຂໍ້ມູນທີ່ເປັນທາງການ.
ອອກກໍາລັງກາຍລະມັດລະວັງທີ່ສຸດກັບ ລິ້ງຄ໌, ໄຟລ໌ ແລະລະຫັດ ທີ່ຖືກຈັດສົ່ງໂດຍ AI. ອາດຈະມີເນື້ອຫາທີ່ເປັນອັນຕະລາຍ ຫຼືຈຸດອ່ອນທີ່ຖືກແນະນຳໂດຍເຈດຕະນາ (ການເປັນພິດຂອງຂໍ້ມູນ). ຢືນຢັນ URL ກ່ອນທີ່ຈະຄລິກ ແລະສະແກນໄຟລ໌ດ້ວຍວິທີແກ້ໄຂຄວາມປອດໄພທີ່ມີຊື່ສຽງ.
ຄວາມບໍ່ໄວ້ວາງໃຈ ສ່ວນຂະຫຍາຍ ແລະປລັກອິນ ຕົ້ນກໍາເນີດທີ່ຫນ້າສົງໄສ. ມີທະເລຂອງ AI-based add-ons, ແລະບໍ່ແມ່ນທັງຫມົດຂອງພວກເຂົາແມ່ນເຊື່ອຖືໄດ້; ຕິດຕັ້ງພຽງແຕ່ສິ່ງທີ່ຈໍາເປັນຈາກແຫຼ່ງທີ່ມີຊື່ສຽງເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງ malware.
ໃນຂອບເຂດຂອງບໍລິສັດ, ເອົາຄໍາສັ່ງໄປສູ່ຂະບວນການຮັບຮອງເອົາ. ກໍານົດ ນະໂຍບາຍການປົກຄອງສະເພາະຂອງ AIມັນຈໍາກັດການລວບລວມຂໍ້ມູນໃນສິ່ງທີ່ຈໍາເປັນ, ຮຽກຮ້ອງໃຫ້ມີການຍິນຍອມເຫັນດີ, ການກວດສອບຜູ້ສະຫນອງແລະຊຸດຂໍ້ມູນ (ລະບົບຕ່ອງໂສ້ການສະຫນອງ), ແລະນໍາໃຊ້ການຄວບຄຸມດ້ານວິຊາການ (ເຊັ່ນ: DLP, ການຕິດຕາມການຈະລາຈອນກັບແອັບຯ AI, ແລະ ການຄວບຄຸມການເຂົ້າເຖິງ granular).
ການຮັບຮູ້ແມ່ນສ່ວນຫນຶ່ງຂອງການປ້ອງກັນ: ສ້າງທີມງານຂອງທ່ານ ໃນຄວາມສ່ຽງ AI, phishing ຂັ້ນສູງ, ແລະການນໍາໃຊ້ດ້ານຈັນຍາບັນ. ການລິເລີ່ມຂອງອຸດສາຫະກໍາທີ່ແບ່ງປັນຂໍ້ມູນກ່ຽວກັບເຫດການ AI, ເຊັ່ນ: ການຂັບເຄື່ອນໂດຍອົງການຈັດຕັ້ງພິເສດ, ສົ່ງເສີມການຮຽນຮູ້ຢ່າງຕໍ່ເນື່ອງແລະການປັບປຸງການປ້ອງກັນ.
ຕັ້ງຄ່າຄວາມເປັນສ່ວນຕົວ ແລະການເຄື່ອນໄຫວໃນ Google Gemini
ຖ້າທ່ານໃຊ້ Gemini, ເຂົ້າສູ່ລະບົບບັນຊີຂອງທ່ານແລະກວດເບິ່ງ "ການເຄື່ອນໄຫວໃນແອັບ Geminiຢູ່ທີ່ນັ້ນທ່ານສາມາດເບິ່ງແລະລຶບປະຕິສໍາພັນ, ປ່ຽນໄລຍະເວລາການລຶບອັດຕະໂນມັດ (ຄ່າເລີ່ມຕົ້ນ 18 ເດືອນ, ປັບເປັນ 3 ຫຼື 36 ເດືອນ, ຫຼືບໍ່ມີກໍານົດ) ແລະຕັດສິນໃຈວ່າພວກມັນຖືກນໍາໃຊ້ສໍາລັບ. ປັບປຸງ AI ຈາກ Google.
ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮູ້ວ່າ, ເຖິງແມ່ນວ່າມີການປິດການປະຫຍັດ, ການສົນທະນາຂອງທ່ານຖືກນໍາໃຊ້ເພື່ອຕອບສະຫນອງ ແລະຮັກສາຄວາມປອດໄພຂອງລະບົບ, ໂດຍໄດ້ຮັບການສະຫນັບສະຫນູນຈາກຜູ້ກວດສອບຂອງມະນຸດ. ການສົນທະນາທີ່ທົບທວນຄືນ (ແລະຂໍ້ມູນທີ່ກ່ຽວຂ້ອງເຊັ່ນພາສາ, ປະເພດອຸປະກອນ, ຫຼືສະຖານທີ່ໂດຍປະມານ) ອາດຈະຖືກຮັກສາໄວ້. ເຖິງສາມປີ.
ໃນອຸປະກອນມືຖື, ກວດເບິ່ງການອະນຸຍາດ appສະຖານທີ່, ໄມໂຄຣໂຟນ, ກ້ອງຖ່າຍຮູບ, ລາຍຊື່ຜູ້ຕິດຕໍ່ ຫຼື ການເຂົ້າເຖິງເນື້ອຫາໃນໜ້າຈໍ. ຖ້າທ່ານອີງໃສ່ dictation ຫຼືລັກສະນະການເປີດໃຊ້ສຽງ, ຈື່ໄວ້ວ່າລະບົບອາດຈະຖືກເປີດໃຊ້ໂດຍຄວາມຜິດພາດໂດຍສຽງທີ່ຄ້າຍຄືກັນກັບຄໍາສໍາຄັນ; ອີງຕາມການຕັ້ງຄ່າ, snippets ເຫຼົ່ານີ້ສາມາດ ເພື່ອໃຊ້ເພື່ອປັບປຸງຕົວແບບ ແລະຫຼຸດຜ່ອນການເປີດໃຊ້ງານທີ່ບໍ່ຕ້ອງການ.
ຖ້າທ່ານເຊື່ອມຕໍ່ Gemini ກັບແອັບຯອື່ນ (Google ຫຼືພາກສ່ວນທີສາມ), ຈົ່ງຈື່ໄວ້ວ່າແຕ່ລະຄົນດໍາເນີນການຂໍ້ມູນຕາມນະໂຍບາຍຂອງຕົນເອງ. ນະໂຍບາຍຂອງຕົນເອງໃນລັກສະນະຕ່າງໆເຊັ່ນ Canvas, ຜູ້ສ້າງແອັບສາມາດເຫັນ ແລະບັນທຶກສິ່ງທີ່ທ່ານແບ່ງປັນ, ແລະທຸກຄົນທີ່ມີລິ້ງສາທາລະນະສາມາດເບິ່ງ ຫຼືແກ້ໄຂຂໍ້ມູນນັ້ນໄດ້: ແບ່ງປັນກັບແອັບທີ່ເຊື່ອຖືໄດ້ເທົ່ານັ້ນ.
ໃນພາກພື້ນທີ່ສາມາດໃຊ້ໄດ້, ການຍົກລະດັບປະສົບການບາງຢ່າງອາດຈະ ນຳເຂົ້າປະຫວັດການໂທ ແລະຂໍ້ຄວາມ ຈາກການເຄື່ອນໄຫວເວັບ ແລະແອັບຯຂອງທ່ານໄປຫາກິດຈະກໍາສະເພາະ Gemini, ເພື່ອປັບປຸງຄໍາແນະນໍາ (ຕົວຢ່າງ, ຕິດຕໍ່ພົວພັນ). ຖ້າຫາກວ່າທ່ານບໍ່ຕ້ອງການນີ້, ປັບການຄວບຄຸມກ່ອນທີ່ຈະສືບຕໍ່.
ການນໍາໃຊ້ມະຫາຊົນ, ລະບຽບການແລະແນວໂນ້ມຂອງ "shadow AI"
ການຮັບຮອງເອົາແມ່ນ overwhelming: ບົດລາຍງານທີ່ຜ່ານມາຊີ້ໃຫ້ເຫັນວ່າ ອົງການຈັດຕັ້ງສ່ວນໃຫຍ່ນຳໃຊ້ຕົວແບບ AI ແລ້ວເຖິງຢ່າງນັ້ນ, ຫຼາຍໆທີມຍັງຂາດຄວາມຍຸຕິທຳຢ່າງພຽງພໍໃນດ້ານຄວາມປອດໄພ ແລະ ການປົກຄອງ, ໂດຍສະເພາະໃນຂະແໜງການທີ່ມີລະບຽບການທີ່ເຂັ້ມງວດ ຫຼື ມີຂໍ້ມູນລະອຽດອ່ອນຫຼາຍ.
ການສຶກສາໃນຂະແຫນງທຸລະກິດເປີດເຜີຍຂໍ້ບົກຜ່ອງ: ອັດຕາສ່ວນສູງຫຼາຍຂອງອົງການຈັດຕັ້ງໃນປະເທດສະເປນ ມັນບໍ່ໄດ້ຖືກກະກຽມເພື່ອປົກປ້ອງສະພາບແວດລ້ອມທີ່ໃຊ້ AIແລະສ່ວນໃຫຍ່ຂາດການປະຕິບັດທີ່ຈໍາເປັນເພື່ອປົກປ້ອງຕົວແບບຄລາວ, ການໄຫລຂອງຂໍ້ມູນ, ແລະໂຄງສ້າງພື້ນຖານ. ໃນຂະນະດຽວກັນ, ການກະທຳດ້ານລະບຽບການກໍ່ເຄັ່ງຕຶງແລະໄພຂົ່ມຂູ່ໃໝ່ພວມເກີດຂຶ້ນ. ການລົງໂທດສໍາລັບການບໍ່ປະຕິບັດຕາມ ຂອງ GDPR ແລະກົດລະບຽບທ້ອງຖິ່ນ.
ໃນຂະນະດຽວກັນ, ປະກົດການຂອງ ເງົາ AI ມັນເຕີບໂຕຂຶ້ນ: ພະນັກງານກໍາລັງໃຊ້ຜູ້ຊ່ວຍພາຍນອກຫຼືບັນຊີສ່ວນບຸກຄົນສໍາລັບວຽກງານການເຮັດວຽກ, ເປີດເຜີຍຂໍ້ມູນພາຍໃນໂດຍບໍ່ມີການຄວບຄຸມຄວາມປອດໄພຫຼືສັນຍາກັບຜູ້ໃຫ້ບໍລິການ. ການຕອບສະຫນອງທີ່ມີປະສິດທິພາບບໍ່ແມ່ນການຫ້າມທຸກສິ່ງທຸກຢ່າງ, ແຕ່ ເປີດນໍາໃຊ້ທີ່ປອດໄພ ໃນສະພາບແວດລ້ອມທີ່ຄວບຄຸມ, ດ້ວຍແພລະຕະຟອມທີ່ໄດ້ຮັບການອະນຸມັດແລະການຕິດຕາມການໄຫຼຂອງຂໍ້ມູນ.
ໃນດ້ານຜູ້ບໍລິໂພກ, ຜູ້ສະຫນອງທີ່ສໍາຄັນກໍາລັງປັບນະໂຍບາຍຂອງພວກເຂົາ. ການປ່ຽນແປງທີ່ຜ່ານມາອະທິບາຍ, ສໍາລັບການຍົກຕົວຢ່າງ, ວິທີການ ກິດຈະກໍາກັບ Gemini ເພື່ອ "ປັບປຸງການບໍລິການ"ສະເຫນີທາງເລືອກເຊັ່ນ: ການສົນທະນາຊົ່ວຄາວແລະກິດຈະກໍາແລະການຄວບຄຸມການປັບແຕ່ງ. ໃນເວລາດຽວກັນ, ບໍລິສັດສົ່ງຂໍ້ຄວາມເນັ້ນຫນັກວ່າ ການສົນທະນາສ່ວນຕົວຍັງຄົງບໍ່ສາມາດເຂົ້າເຖິງໄດ້ ກັບ AIs ໂດຍຄ່າເລີ່ມຕົ້ນ, ເຖິງແມ່ນວ່າພວກເຂົາແນະນໍາໃຫ້ຕໍ່ຕ້ານການສົ່ງຂໍ້ມູນໄປຫາ AI ທີ່ທ່ານບໍ່ຕ້ອງການໃຫ້ບໍລິສັດຮູ້.
ຍັງມີການແກ້ໄຂສາທາລະນະ: ການບໍລິການຂອງ ການໂອນໄຟລ໌ ພວກເຂົາເຈົ້າໄດ້ຊີ້ແຈງວ່າພວກເຂົາບໍ່ໄດ້ໃຊ້ເນື້ອຫາຂອງຜູ້ໃຊ້ເພື່ອຝຶກອົບຮົມແບບຈໍາລອງຫຼືຂາຍໃຫ້ບຸກຄົນທີສາມ, ຫຼັງຈາກສ້າງຄວາມກັງວົນກ່ຽວກັບການປ່ຽນແປງຂໍ້ກໍານົດ. ຄວາມກົດດັນທາງດ້ານສັງຄົມແລະທາງດ້ານກົດຫມາຍນີ້ກໍາລັງຊຸກຍູ້ໃຫ້ພວກເຂົາມີຄວາມຊັດເຈນແລະ ໃຫ້ຜູ້ໃຊ້ຄວບຄຸມຫຼາຍຂຶ້ນ.
ຊອກຫາໃນອະນາຄົດ, ບໍລິສັດເຕັກໂນໂລຢີກໍາລັງຄົ້ນຫາວິທີການ ຫຼຸດຜ່ອນການເພິ່ງພາອາໄສຂໍ້ມູນລະອຽດອ່ອນຕົວແບບທີ່ປັບປຸງຕົນເອງ, ໂປເຊດເຊີທີ່ດີກວ່າ, ແລະການຜະລິດຂໍ້ມູນສັງເຄາະ. ຄວາມກ້າວຫນ້າເຫຼົ່ານີ້ສັນຍາວ່າຈະຫຼຸດຜ່ອນການຂາດແຄນຂໍ້ມູນແລະບັນຫາການຍິນຍອມ, ເຖິງແມ່ນວ່າຜູ້ຊ່ຽວຊານເຕືອນກ່ຽວກັບຄວາມສ່ຽງທີ່ເກີດຂື້ນຖ້າ AI ເລັ່ງຄວາມສາມາດຂອງຕົນເອງແລະຖືກນໍາໃຊ້ກັບພື້ນທີ່ເຊັ່ນການບຸກລຸກຫຼືການຫມູນໃຊ້ທາງອິນເຕີເນັດ.
AI ເປັນທັງການປ້ອງກັນແລະໄພຂົ່ມຂູ່. ແພລະຕະຟອມຄວາມປອດໄພລວມຕົວແບບສໍາລັບ ກວດພົບແລະຕອບສະຫນອງ ໄວຂຶ້ນ, ໃນຂະນະທີ່ຜູ້ໂຈມຕີໃຊ້ LLMs ເພື່ອ phishing ໂນ້ມນ້າວແລະ deepfakesການແຂ່ງຂັນນີ້ຮຽກຮ້ອງໃຫ້ມີການລົງທຶນແບບຍືນຍົງໃນການຄວບຄຸມດ້ານວິຊາການ, ການປະເມີນຜົນຜູ້ສະຫນອງ, ການກວດສອບຢ່າງຕໍ່ເນື່ອງ, ແລະ ການປັບປຸງອຸປະກອນຄົງທີ່.
ຜູ້ຊ່ວຍ AI ເກັບກຳສັນຍານຫຼາຍຢ່າງກ່ຽວກັບທ່ານ, ຈາກເນື້ອຫາທີ່ທ່ານພິມໄປຫາຂໍ້ມູນອຸປະກອນ, ການນຳໃຊ້ ແລະສະຖານທີ່. ບາງຂໍ້ມູນນີ້ອາດຈະຖືກທົບທວນໂດຍມະນຸດ ຫຼືແບ່ງປັນກັບພາກສ່ວນທີສາມ, ຂຶ້ນກັບການບໍລິການ. ຖ້າທ່ານຕ້ອງການທີ່ຈະໃຊ້ AI ໂດຍບໍ່ມີການທໍາລາຍຄວາມເປັນສ່ວນຕົວຂອງທ່ານ, ສົມທົບການປັບລະອຽດ (ປະຫວັດສາດ, ການອະນຸຍາດ, ການລຶບອັດຕະໂນມັດ), ຄວາມລະມັດລະວັງໃນການດໍາເນີນງານ (ຢ່າແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນ, ຢືນຢັນການເຊື່ອມຕໍ່ແລະໄຟລ໌, ຈໍາກັດການຂະຫຍາຍໄຟລ໌), ການປົກປ້ອງການເຂົ້າເຖິງ (ລະຫັດຜ່ານທີ່ເຂັ້ມແຂງແລະ 2FA), ແລະການຕິດຕາມການເຄື່ອນໄຫວສໍາລັບການປ່ຽນແປງນະໂຍບາຍແລະຄຸນສົມບັດໃຫມ່ທີ່ອາດຈະສົ່ງຜົນກະທົບຕໍ່ຄວາມເປັນສ່ວນຕົວຂອງທ່ານ. ຂໍ້ມູນຂອງທ່ານຖືກໃຊ້ ແລະເກັບຮັກສາແນວໃດ.
ມີຄວາມກະຕືລືລົ້ນກ່ຽວກັບເຕັກໂນໂລຢີຕັ້ງແຕ່ລາວຍັງນ້ອຍ. ຂ້ອຍຮັກການເປັນທັນສະໄຫມໃນຂະແຫນງການແລະ, ສໍາຄັນທີ່ສຸດ, ການສື່ສານມັນ. ນັ້ນແມ່ນເຫດຜົນທີ່ຂ້ອຍໄດ້ອຸທິດຕົນເພື່ອການສື່ສານໃນເວັບໄຊທ໌ເຕັກໂນໂລຢີແລະວິດີໂອເກມເປັນເວລາຫລາຍປີ. ທ່ານສາມາດຊອກຫາຂ້ອຍຂຽນກ່ຽວກັບ Android, Windows, MacOS, iOS, Nintendo ຫຼືຫົວຂໍ້ທີ່ກ່ຽວຂ້ອງອື່ນໆທີ່ເຂົ້າມາໃນໃຈ.