- Anthropic ແນະນໍາຄວາມມັກທີ່ຊັດເຈນສໍາລັບຜູ້ໃຊ້ທີ່ຈະເລືອກເອົາວ່າການສົນທະນາຂອງເຂົາເຈົ້າກັບ Claude ຖືກນໍາໃຊ້ສໍາລັບການຝຶກອົບຮົມ.
- ການປ່ຽນແປງຜົນກະທົບຕໍ່ແຜນການ Free, Pro, ແລະ Max; ການເຮັດວຽກ, ລັດຖະບານ, ການສຶກສາ, ແລະການນໍາໃຊ້ API (Bedrock, Vertex AI) ແມ່ນບໍ່ລວມເອົາ.
- ການຮັກສາຂໍ້ມູນແມ່ນເປັນເວລາຫ້າປີຖ້າທ່ານເຂົ້າຮ່ວມແລະ 30 ມື້ຖ້າທ່ານບໍ່ເຮັດ; ການສົນທະນາທີ່ຖືກລົບຈະບໍ່ຖືກໃຊ້ສໍາລັບການຝຶກອົບຮົມ.
- ທ່ານຕ້ອງກໍານົດຄວາມຕ້ອງການຂອງທ່ານພາຍໃນເດືອນກັນຍາ 28, 2025; ທ່ານສາມາດປ່ຽນມັນໄດ້ທຸກເວລາໃນຄວາມເປັນສ່ວນຕົວ.

ການໂອ້ລົມກັບຜູ້ຊ່ວຍ AI ໄດ້ກາຍເປັນເລື່ອງປົກກະຕິ, ແຕ່ພວກເຮົາບໍ່ຄ່ອຍຄິດກ່ຽວກັບມັນ. ເປັນແນວໃດກັບການສົນທະນາເຫຼົ່ານັ້ນ?. ໃນປັດຈຸບັນ Anthropic ແນະນໍາ ການປ່ຽນແປງທີ່ກ່ຽວຂ້ອງໃນຄວາມເປັນສ່ວນຕົວຂອງ Claude: ຫຼັງຈາກກໍານົດເວລາກໍານົດ, ຜູ້ໃຊ້ແຕ່ລະຄົນຈະຕ້ອງຕັດສິນໃຈວ່າຈະອະນຸຍາດໃຫ້ການສົນທະນາຂອງເຂົາເຈົ້າຖືກນໍາໃຊ້ເພື່ອຝຶກອົບຮົມແບບຈໍາລອງໃນອະນາຄົດ.
ບໍລິສັດຈະຮຽກຮ້ອງໃຫ້ຜູ້ທີ່ໃຊ້ Claude ໃນແຜນການ Free, Pro ແລະ Max ເລືອກຄວາມມັກຂອງເຈົ້າກ່ອນວັນທີ 28 ກັນຍາ 2025ຖ້າບໍ່ມີທາງເລືອກນີ້, ການສືບຕໍ່ໃຊ້ບໍລິການກໍ່ມີຄວາມຫຍຸ້ງຍາກຫຼາຍ; ການຕັດສິນໃຈຈະປາກົດຢູ່ໃນການແຈ້ງການໃນ app ແລະຍັງສາມາດໄດ້ຮັບການຕັ້ງຄ່າໃນລະຫວ່າງການລົງທະບຽນບັນຊີໃຫມ່.
ສິ່ງທີ່ແນ່ນອນປ່ຽນແປງ
ຈາກນີ້ໄປ, ຜູ້ໃຊ້ສາມາດໃຫ້ຫຼືບໍ່ໃຫ້ສິດຂອງເຂົາເຈົ້າສໍາລັບ ການສົນທະນາ ແລະຊ່ວງເວລາລະຫັດຂອງທ່ານ ຊ່ວຍປັບປຸງປະສິດທິພາບ ແລະຄວາມປອດໄພຂອງ Claude. ທາງເລືອກແມ່ນມີຄວາມສະໝັກໃຈ ແລະສາມາດປ່ຽນຄືນໄດ້ຕະຫຼອດເວລາຈາກການຕັ້ງຄ່າຄວາມເປັນສ່ວນຕົວຂອງທ່ານ, ໂດຍບໍ່ຕ້ອງຜ່ານຂະບວນການທີ່ສັບສົນໃດໆ.
ນະໂຍບາຍໃຫມ່ໃຊ້ພຽງແຕ່ກັບ ກິດຈະກໍາຫຼັງການຍອມຮັບກະທູ້ເກົ່າທີ່ບໍ່ມີການໂຕ້ຕອບໃຫມ່ຈະບໍ່ຖືກນໍາໃຊ້ສໍາລັບການຝຶກອົບຮົມ. ຢ່າງໃດກໍຕາມ, ຖ້າທ່ານສືບຕໍ່ການສົນທະນາຫຼືກອງປະຊຸມການຂຽນໂປລແກລມຫຼັງຈາກການຍອມຮັບ, ການປະກອບສ່ວນຂອງທ່ານຈາກຈຸດນັ້ນສາມາດຖືກລວມເຂົ້າໃນຊຸດຂໍ້ມູນການປັບປຸງ.
ການປ່ຽນແປງບໍ່ໄດ້ກວມເອົາລະບົບນິເວດ Anthropic ທັງຫມົດ. ເຂົາເຈົ້າໄດ້ຖືກປະໄວ້. Claude ສໍາລັບການເຮັດວຽກ, Claude Gov, Claude ສໍາລັບການສຶກສາ ແລະການເຂົ້າເຖິງ API ຜ່ານຜູ້ໃຫ້ບໍລິການເຊັ່ນ Amazon Bedrock ຫຼື Vertex AI ຂອງ Google Cloud. ນັ້ນແມ່ນ, ຈຸດສຸມແມ່ນກ່ຽວກັບການນໍາໃຊ້ຜູ້ບໍລິໂພກຂອງ Claude.ai ແລະ Claude Code ທີ່ກ່ຽວຂ້ອງກັບແຜນການເຫຼົ່ານັ້ນ.
ຜູ້ທີ່ຍອມຮັບໃນປັດຈຸບັນຈະເຫັນຜົນກະທົບທັນທີທັນໃດກັບການສົນທະນາໃຫມ່ຂອງພວກເຂົາ. ໃນກໍລະນີໃດກໍ່ຕາມ, ຈາກເສັ້ນຕາຍມັນຈະຖືກບັງຄັບ ໄດ້ຊີ້ບອກເຖິງຄວາມມັກທີ່ຈະສືບຕໍ່ໃຊ້ບໍລິການໂດຍບໍ່ມີການຂັດຂວາງ.
ການປະມວນຜົນຂໍ້ມູນ ແລະການຮັກສາໄວ້
ຖ້າເຈົ້າໃຫ້ການອະນຸຍາດຂອງເຈົ້າ, ຂໍ້ມູນທີ່ສະຫນອງໃຫ້ສໍາລັບຈຸດປະສົງການປັບປຸງອາດຈະໄດ້ຮັບການເກັບຮັກສາໄວ້ສໍາລັບການ ຫ້າປີຖ້າທ່ານບໍ່ເຂົ້າຮ່ວມ, ນະໂຍບາຍຂອງ ການຮັກສາໄວ້ 30 ມື້. ນອກຈາກນີ້, ການສົນທະນາທີ່ຖືກລົບຈະບໍ່ຖືກລວມເຂົ້າໃນການຝຶກອົບຮົມໃນອະນາຄົດ, ແລະຄໍາຕິຊົມໃດໆທີ່ທ່ານສົ່ງອາດຈະຖືກຮັກສາໄວ້ພາຍໃຕ້ກົດລະບຽບດຽວກັນນີ້.
Anthropic ອ້າງວ່າສົມທົບ ເຄື່ອງມືອັດຕະໂນມັດແລະຂະບວນການ ເພື່ອກັ່ນຕອງ ຫຼືເຮັດໃຫ້ສັບສົນຂໍ້ມູນລະອຽດອ່ອນ, ແລະບໍ່ຂາຍຂໍ້ມູນຜູ້ໃຊ້ໃຫ້ພາກສ່ວນທີສາມ. ໃນການກັບຄືນມາ, ການນໍາໃຊ້ການພົວພັນທີ່ແທ້ຈິງຊອກຫາທີ່ຈະເພີ່ມຄວາມເຂັ້ມແຂງ ປົກປ້ອງການລ່ວງລະເມີດ ແລະປັບປຸງທັກສະເຊັ່ນການສົມເຫດສົມຜົນ, ການວິເຄາະ, ແລະການແກ້ໄຂລະຫັດ.
ເຫດຜົນແລະສະພາບການຂອງການປ່ຽນແປງ
ຮູບແບບພາສາຕ້ອງການ ປະລິມານຫຼາຍຂອງຂໍ້ມູນ ແລະຮອບວຽນທີ່ຍາວນານ. ດ້ວຍເວັບເປີດໃຫ້ເນື້ອຫາສົດຫນ້ອຍລົງ, ບໍລິສັດກໍາລັງຈັດລໍາດັບຄວາມສໍາຄັນຂອງສັນຍານຈາກ ການໂຕ້ຕອບທີ່ແທ້ຈິງ ປັບປຸງການຕອບສະໜອງ ແລະກວດຫາພຶດຕິກຳທີ່ເປັນບັນຫາໃຫ້ດີຂຶ້ນ.
ວິທີການກໍານົດຄວາມຕ້ອງການຂອງທ່ານ

ເມື່ອເຂົ້າສູ່ລະບົບ, ຫຼາຍຄົນຈະເຫັນແຈ້ງການ "ອັບເດດຂໍ້ກຳນົດ ແລະນະໂຍບາຍຂອງຜູ້ບໍລິໂພກ”. ຢູ່ໃນປ່ອງນັ້ນ, ທ່ານຈະເຫັນຕົວຄວບຄຸມເພື່ອອະນຸຍາດໃຫ້ການສົນທະນາຂອງທ່ານຊ່ວຍປັບປຸງ Claude. ຖ້າທ່ານບໍ່ຕ້ອງການເຂົ້າຮ່ວມ, ປິດການໃຊ້ງານທາງເລືອກ ແລະຢືນຢັນໂດຍການຄລິກ “ຍອມຮັບ.”
ຖ້າທ່ານຍອມຮັບແລ້ວແລະຕ້ອງການກວດເບິ່ງມັນ, ເປີດ Claude ແລະໄປທີ່ ການຕັ້ງຄ່າ > ຄວາມເປັນສ່ວນຕົວ > ການຕັ້ງຄ່າຄວາມເປັນສ່ວນຕົວ. ຢູ່ທີ່ນັ້ນທ່ານສາມາດປ່ຽນຕົວເລືອກ "ຊ່ວຍປັບປຸງ Claude" ທຸກຄັ້ງທີ່ທ່ານຕ້ອງການ. ຈົ່ງຈື່ໄວ້ວ່າການປິດການໃຊ້ງານມັນບໍ່ໄດ້ລຶບສິ່ງທີ່ເຄີຍໃຊ້ໃນເມື່ອກ່ອນ; ສິ່ງທີ່ມັນເຮັດແມ່ນຕັນ ການໂຕ້ຕອບໃຫມ່ ເຂົ້າສູ່ການຝຶກອົບຮົມໃນອະນາຄົດ.
ຂໍ້ຈໍາກັດແລະຄວາມກະຈ່າງແຈ້ງ
ບໍລິສັດເນັ້ນຫນັກວ່າການເກັບກໍາເພື່ອຈຸດປະສົງການປັບປຸງນໍາໃຊ້ ເນື້ອຫາໃຫມ່ເທົ່ານັ້ນ ຫຼັງຈາກຍອມຮັບເງື່ອນໄຂ. ການສືບຕໍ່ການສົນທະນາແບບເກົ່າຈະເພີ່ມເນື້ອຫາຫຼ້າສຸດ, ແຕ່ເນື້ອຫາເກົ່າຍັງຄົງຖືກຍົກເວັ້ນຖ້າບໍ່ມີກິດຈະກໍາຕໍ່ໄປ. ບັນຊີທຸລະກິດ ແລະລັດຖະບານໃຊ້ ເງື່ອນໄຂແຍກຕ່າງຫາກ, ດັ່ງນັ້ນການປ່ຽນແປງນີ້ບໍ່ມີຜົນກະທົບຕໍ່ພວກເຂົາ.
ສໍາລັບຜູ້ທີ່ຈັດລໍາດັບຄວາມສໍາຄັນຂອງຄວາມເປັນສ່ວນຕົວສູງສຸດ, ການຕັ້ງຄ່າອະນຸຍາດໃຫ້ທ່ານເລືອກອອກແລະຮັກສານະໂຍບາຍ 30 ມື້. ຜູ້ທີ່ປະກອບສ່ວນຂໍ້ມູນ, ໃນທາງກົງກັນຂ້າມ, ຈະເບິ່ງວິທີການ ກົນໄກຄວາມປອດໄພ ແລະຄວາມສາມາດຂອງຕົວແບບໄດ້ຖືກປັບດ້ວຍສັນຍານຈາກການນໍາໃຊ້ຊີວິດຈິງ.
ດ້ວຍການເຄື່ອນໄຫວນີ້, Anthropic ຊອກຫາສີ່ຫລ່ຽມວົງມົນລະຫວ່າງຄວາມຕ້ອງການຂໍ້ມູນແລະການຄວບຄຸມຜູ້ໃຊ້: ທ່ານເລືອກວ່າການສົນທະນາຂອງທ່ານຊ່ວຍຝຶກອົບຮົມ, ເຈົ້າຮູ້ວ່າພວກມັນຖືກເກັບໄວ້ດົນປານໃດແລະສາມາດປ່ຽນໃຈຂອງເຈົ້າທຸກຄັ້ງທີ່ທ່ານຕ້ອງການ, ດ້ວຍກົດລະບຽບທີ່ຊັດເຈນກວ່າກ່ຽວກັບສິ່ງທີ່ຖືກລວບລວມແລະເວລາໃດ.
ຂ້ອຍເປັນນັກເທັກໂນໂລຍີທີ່ກະຕືລືລົ້ນທີ່ໄດ້ຫັນຄວາມສົນໃຈ "geek" ຂອງລາວໄປສູ່ອາຊີບ. ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາຫຼາຍກ່ວາ 10 ປີຂອງຊີວິດຂອງຂ້າພະເຈົ້າໂດຍການນໍາໃຊ້ເຕັກໂນໂລຊີທີ່ທັນສະໄຫມແລະ tinkering ກັບທຸກປະເພດຂອງໂຄງການອອກຈາກ curiosity ອັນບໍລິສຸດ. ຕອນນີ້ຂ້ອຍມີຄວາມຊ່ຽວຊານດ້ານເທັກໂນໂລຍີຄອມພິວເຕີ ແລະເກມວີດີໂອ. ນີ້ແມ່ນຍ້ອນວ່າຫຼາຍກວ່າ 5 ປີທີ່ຂ້ອຍໄດ້ຂຽນສໍາລັບເວັບໄຊທ໌ຕ່າງໆກ່ຽວກັບເຕັກໂນໂລຢີແລະວິດີໂອເກມ, ການສ້າງບົດຄວາມທີ່ຊອກຫາເພື່ອໃຫ້ທ່ານມີຂໍ້ມູນທີ່ທ່ານຕ້ອງການໃນພາສາທີ່ທຸກຄົນເຂົ້າໃຈໄດ້.
ຖ້າທ່ານມີຄໍາຖາມໃດໆ, ຄວາມຮູ້ຂອງຂ້ອຍແມ່ນມາຈາກທຸກສິ່ງທຸກຢ່າງທີ່ກ່ຽວຂ້ອງກັບລະບົບປະຕິບັດການ Windows ເຊັ່ນດຽວກັນກັບ Android ສໍາລັບໂທລະສັບມືຖື. ແລະຄໍາຫມັ້ນສັນຍາຂອງຂ້າພະເຈົ້າແມ່ນກັບທ່ານ, ຂ້າພະເຈົ້າສະເຫມີເຕັມໃຈທີ່ຈະໃຊ້ເວລາສອງສາມນາທີແລະຊ່ວຍທ່ານແກ້ໄຂຄໍາຖາມໃດໆທີ່ທ່ານອາດຈະມີຢູ່ໃນໂລກອິນເຕີເນັດນີ້.

