- OpenAI ຈະເປີດຕົວໂໝດຜູ້ໃຫຍ່ຂອງ ChatGPT ເລີ່ມຕົ້ນໃນໄຕມາດທຳອິດຂອງປີ 2026, ຫຼັງຈາກເລື່ອນວັນທີເບື້ອງຕົ້ນທີ່ວາງແຜນໄວ້ໃນເດືອນທັນວາອອກໄປ.
- ບໍລິສັດກຳລັງທົດສອບຮູບແບບການຄາດຄະເນ ແລະ ການຢັ້ງຢືນອາຍຸທີ່ຕ້ອງແຍກແຍະລະຫວ່າງໄວລຸ້ນ ແລະ ຜູ້ໃຫຍ່ຢ່າງຖືກຕ້ອງກ່ອນທີ່ຈະປົດລັອກໂໝດໃໝ່.
- ໂໝດຜູ້ໃຫຍ່ຈະອະນຸຍາດໃຫ້ຜູ້ໃຊ້ທີ່ຢັ້ງຢືນແລ້ວມີເນື້ອຫາສ່ວນຕົວ, ມີຄວາມຮູ້ສຶກກະຕຸ້ນ ແລະ ອາດຈະກະຕຸ້ນອາລົມຫຼາຍຂຶ້ນ, ພ້ອມດ້ວຍນະໂຍບາຍທີ່ດີຂຶ້ນເພື່ອປົກປ້ອງເດັກນ້ອຍ.
- ການລິເລີ່ມດັ່ງກ່າວມີຂຶ້ນທ່າມກາງຄວາມກົດດັນດ້ານກົດລະບຽບ ແລະ ການໂຕ້ວາທີດ້ານຈັນຍາບັນກ່ຽວກັບສຸຂະພາບຈິດ, ສາຍພົວພັນທາງດ້ານອາລົມກັບ chatbots, ແລະ ຄວາມຮັບຜິດຊອບຂອງບໍລິສັດເຕັກໂນໂລຢີຂະໜາດໃຫຍ່.
ຂະແໜງການປັນຍາປະດິດທີ່ສ້າງສັນກຳລັງກະກຽມສຳລັບການປ່ຽນແປງທີ່ລະອຽດອ່ອນ: ການມາຮອດຂອງ ໂໝດຜູ້ໃຫຍ່ ChatGPT, ການຕັ້ງຄ່າທີ່ຖືກອອກແບບມາສຳລັບ ຜ່ອນຄາຍຕົວກອງໃນປະຈຸບັນບາງຢ່າງ ແລະ ອະນຸຍາດໃຫ້ມີການສົນທະນາທີ່ຊັດເຈນກວ່າ, ຈຳກັດສະເພາະຜູ້ໃຫຍ່ເທົ່ານັ້ນຄຸນສົມບັດນີ້, ເຊິ່ງມີຂ່າວລືກັນມາດົນແລ້ວ ແລະ ຕອນນີ້ໄດ້ປະກາດຢ່າງເປັນທາງການໂດຍ OpenAI, ມີຈຸດປະສົງເພື່ອ ການຕອບສະໜອງຕໍ່ຄຳຮ້ອງທຸກຈາກຜູ້ທີ່ຮູ້ສຶກວ່າຜູ້ຊ່ວຍໄດ້ກາຍເປັນຄົນອະນຸລັກນິຍົມເກີນໄປໂດຍສະເພາະຫຼັງຈາກການອັບເດດຮູບແບບລ້າສຸດ.
ບໍລິສັດຂອງ Sam Altman ໄດ້ຢືນຢັນວ່າໂໝດນີ້ຈະບໍ່ຖືກເປີດໃຊ້ງານຈົນກວ່າລະບົບຂອງມັນຈະສາມາດ ຢືນຢັນອາຍຸຂອງຜູ້ໃຊ້ແຕ່ລະຄົນພຽງແຕ່ໝາຍຕິກໃສ່ກ່ອງທີ່ເວົ້າວ່າ "ແມ່ນແລ້ວ, ຂ້ອຍອາຍຸເກີນ 18 ປີ" ຈະບໍ່ພຽງພໍອີກຕໍ່ໄປ: ການເຂົ້າເຖິງເນື້ອຫາບາງຢ່າງໃນ ChatGPT ຈະຂຶ້ນກັບການປະສົມປະສານຂອງຮູບແບບ AI, ການວິເຄາະພຶດຕິກຳ, ແລະ ນະໂຍບາຍຄວາມປອດໄພທີ່ເສີມສ້າງ.ໂດຍມີຈຸດປະສົງເພື່ອບໍ່ໃຫ້ເດັກນ້ອຍຖືກຍົກເວັ້ນ ແລະ ສະເໜີພື້ນທີ່ໃຫ້ຜູ້ໃຫຍ່ສາມາດເຄື່ອນໄຫວໄດ້ຫຼາຍຂຶ້ນ.
ການປ່ອຍຕົວຖືກເລື່ອນອອກໄປເປັນປີ 2026 ເພື່ອປັບແຕ່ງການຄວບຄຸມໃຫ້ດີຂຶ້ນ

OpenAI ໄດ້ກ່າວຊ້ຳແລ້ວຊ້ຳອີກວ່າບູລິມະສິດຂອງຕົນແມ່ນ ຫຼີກລ່ຽງຄວາມຜິດພາດໃນການປົກປ້ອງເດັກແລະສິ່ງນັ້ນໄດ້ສົ່ງຜົນກະທົບຕໍ່ຕາຕະລາງເວລາ. ເຖິງແມ່ນວ່າ Altman ໄດ້ປະກາດຕໍ່ສາທາລະນະວ່າໂໝດສຳລັບຜູ້ໃຫຍ່ຈະພ້ອມໃຊ້ໃນເດືອນທັນວາ, ແຕ່ບໍລິສັດໄດ້ຍ້າຍວັນທີອອກ ແລະ ດຽວນີ້ວາງການປ່ອຍຕົວໃນລະຫວ່າງ ໄຕມາດ ທຳ ອິດຂອງປີ 2026ການຊັກຊ້າດັ່ງກ່າວ, ອີງຕາມຜູ້ຈັດການຂອງມັນ, ແມ່ນຍ້ອນຄວາມຕ້ອງການໃນການປັບປຸງລະບົບການຄາດຄະເນອາຍຸເຊິ່ງຈະເປັນປະຕູສູ່ປະສົບການໃໝ່.
ທ່ານ Fidji Simo, ຫົວໜ້າຝ່າຍແອັບພລິເຄຊັນທີ່ OpenAI, ໄດ້ອະທິບາຍໃນກອງປະຊຸມຂ່າວຫຼາຍໆຄັ້ງວ່າ ປະຈຸບັນບໍລິສັດກຳລັງຢູ່ໃນ ໄລຍະການທົດສອບຄັ້ງທຳອິດຂອງຮູບແບບການປະເມີນອາຍຸຂອງເຂົາເຈົ້າຮູບແບບນີ້ບໍ່ພຽງແຕ່ຖາມຜູ້ໃຊ້ເທົ່ານັ້ນ, ແຕ່ພະຍາຍາມອະນຸມານໂດຍອັດຕະໂນມັດວ່າພວກເຂົາເປັນເດັກນ້ອຍ, ໄວລຸ້ນ, ຫຼືຜູ້ໃຫຍ່, ເພື່ອ ຕັດສິນໃຈວ່າເນື້ອຫາປະເພດໃດເໝາະສົມໃນແຕ່ລະກໍລະນີ.
ບໍລິສັດໄດ້ດຳເນີນການທົດສອບແລ້ວໃນ ບາງປະເທດ ແລະ ຕະຫຼາດສະເພາະການວິເຄາະຂອບເຂດທີ່ລະບົບລະບຸໄວລຸ້ນໄດ້ຢ່າງຖືກຕ້ອງໂດຍບໍ່ສັບສົນພວກເຂົາກັບຜູ້ໃຫຍ່. ຈຸດນີ້ແມ່ນມີຄວາມອ່ອນໄຫວໂດຍສະເພາະ: ຜົນກວດທີ່ບໍ່ຖືກຕ້ອງທີ່ເຮັດໃຫ້ເດັກນ້ອຍຜ່ານໄປອາດຈະນໍາໄປສູ່ບັນຫາທາງດ້ານກົດໝາຍແລະຊື່ສຽງ.ໃນຂະນະທີ່ການປະຕິເສດທີ່ບໍ່ຖືກຕ້ອງທີ່ບລັອກຜູ້ໃຊ້ທີ່ມີອາຍຸຫຼາຍກວ່າຢ່າງເປັນລະບົບຈະທຳລາຍປະສົບການ ແລະ ຄວາມໄວ້ວາງໃຈໃນຜະລິດຕະພັນ.
ໃນເວລາດຽວກັນ, OpenAI ກໍາລັງພະຍາຍາມປະຕິບັດຕາມສະພາບແວດລ້ອມດ້ານກົດລະບຽບທີ່ມີຄວາມຕ້ອງການເພີ່ມຂຶ້ນເລື້ອຍໆ, ທັງໃນ ສະຫະລັດອາເມລິກາ ເຊັ່ນດຽວກັບໃນເອີຣົບບ່ອນທີ່ກົດໝາຍກຳລັງຖືກກ້າວໜ້າ ເຊິ່ງຮຽກຮ້ອງໃຫ້ມີການເສີມສ້າງກົນໄກການຢັ້ງຢືນອາຍຸ ແລະ ການຕິດຕາມກວດກາເນື້ອຫາທີ່ລະອຽດອ່ອນ. ດັ່ງນັ້ນ, ໂໝດຜູ້ໃຫຍ່ຈຶ່ງບໍ່ໄດ້ຖືກຄິດວ່າເປັນຄຸນສົມບັດເພີ່ມເຕີມງ່າຍໆ, ແຕ່ເປັນ ອົງປະກອບທີ່ຈະຕ້ອງເຂົ້າກັບປິດສະໜາກົດລະບຽບທີ່ສັບສົນ.
ໂໝດຜູ້ໃຫຍ່ມີຈຸດປະສົງເພື່ອສະເໜີຫຍັງແທ້?
ໜຶ່ງໃນຄຳຖາມໃຫຍ່ໆແມ່ນກ່ຽວກັບ ChatGPT ຈະອະນຸຍາດໃຫ້ໃຊ້ເນື້ອຫາປະເພດໃດແທ້ ເມື່ອໂໝດສຳລັບຜູ້ໃຫຍ່ມີໃຫ້ໃຊ້. ກ່ອນໜ້ານີ້ OpenAI ມີນະໂຍບາຍທີ່ຈຳກັດຫຼາຍທີ່ຫ້າມການອ້າງອີງທາງເພດເກືອບທັງໝົດ, ເຖິງແມ່ນວ່າໃນສະພາບການທີ່ໃຫ້ຂໍ້ມູນ, ເປັນວັນນະຄະດີ, ຫຼື ການຍິນຍອມຂອງຜູ້ໃຫຍ່ຢ່າງຈະແຈ້ງ. ດ້ວຍໂໝດໃໝ່, ບໍລິສັດເປີດໃຈທີ່ຈະຜ່ອນຄາຍກົດລະບຽບເຫຼົ່ານັ້ນບາງຢ່າງ, ເຖິງແມ່ນວ່າຍັງບໍ່ທັນໄດ້ລະບຸຂອບເຂດຂອງການຜ່ອນຄາຍນີ້ເທື່ອ.
ແນວຄວາມຄິດທົ່ວໄປທີ່ Simo ແລະ Altman ໄດ້ຖ່າຍທອດແມ່ນວ່າຜູ້ໃຫຍ່ທີ່ໄດ້ຮັບການຢັ້ງຢືນແລ້ວຈະສາມາດເຂົ້າເຖິງໄດ້ ການສົນທະນາທີ່ເປັນສ່ວນຕົວ, ມີຄວາມຮູ້ສຶກ, ໂລແມນຕິກ ແລະ ແມ່ນແຕ່ການກະຕຸ້ນທາງເພດຫຼາຍຂຶ້ນ...ດ້ວຍການໃຊ້ພາສາທີ່ບໍ່ມີຄວາມໝາຍຫຍັງເມື່ອສະພາບການ ແລະ ການຮ້ອງຂໍຂອງຜູ້ໃຊ້ສົມຄວນ. ຕົວຢ່າງເຊັ່ນ ນີ້ຈະລວມເຖິງສາກທີ່ສົມມຸດຂຶ້ນຈາກນະວະນິຍາຍໂຣແມນຕິກ ຫຼື ຄຳອະທິບາຍທີ່ກົງໄປກົງມາກ່ຽວກັບເລື່ອງເພດສຳພັນ ໂດຍທີ່ຜູ້ຊ່ວຍບໍ່ໄດ້ຢຸດຊະງັກທັນທີ.
ບໍລິສັດຢືນຢັນວ່າເປົ້າໝາຍບໍ່ແມ່ນເພື່ອປ່ຽນ chatbot ໃຫ້ກາຍເປັນແພລດຟອມທີ່ບໍ່ມີກົດລະບຽບ, ແຕ່ແມ່ນເພື່ອປີ້ນກັບວິທີການທີ່ຜູ້ໃຊ້ຫຼາຍຄົນອະທິບາຍວ່າເປັນ "aseptic". ຂໍ້ຄວາມທີ່ Altman ໄດ້ເວົ້າຊ້ຳອີກແມ່ນ: “ປະຕິບັດຕໍ່ຜູ້ໃຊ້ທີ່ເປັນຜູ້ໃຫຍ່ຄືກັບຜູ້ໃຫຍ່”ອະນຸຍາດໃຫ້ມີເສລີພາບໃນການສ້າງສັນ ແລະ ການສະແດງອອກທີ່ຫຼາຍຂຶ້ນ, ແຕ່ຢູ່ພາຍໃຕ້ຂອບຄວາມປອດໄພທີ່ເສີມສ້າງເພື່ອປ້ອງກັນການລ່ວງລະເມີດ ຫຼື ການເຂົ້າເຖິງໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດຈາກເດັກນ້ອຍ.
ຍັງ ມັນຍັງຕ້ອງໄດ້ກຳນົດວ່າເນື້ອຫາໃດຈະຖືກພິຈາລະນາວ່າເປັນເນື້ອຫາທີ່ກະຕຸ້ນຄວາມຮູ້ສຶກທາງເພດທີ່ໄດ້ຮັບອະນຸຍາດ ແລະ ເນື້ອຫາໃດຈະສືບຕໍ່ຖືກຫ້າມ. ເພາະມັນຖືກຖືວ່າເປັນອັນຕະລາຍ, ຜິດກົດໝາຍ ຫຼື ຂັດກັບນະໂຍບາຍພາຍໃນ. ຂໍ້ຈຳກັດນັ້ນຈະເປັນກຸນແຈສຳຄັນ.ນີ້ແມ່ນສຳລັບການນຳໃຊ້ປະຈຳວັນ ເຊັ່ນດຽວກັນກັບຜູ້ຂຽນເນື້ອຫາ, ຜູ້ຂຽນບົດຮູບເງົາ ຫຼື ຜູ້ສ້າງທີ່ໄດ້ພະຍາຍາມໃຫ້ສາມາດເຮັດວຽກກັບສາກທີ່ມີຄວາມຊັດເຈນຫຼາຍຂຶ້ນໂດຍບໍ່ຕ້ອງປະເຊີນກັບການບລັອກຢ່າງຕໍ່ເນື່ອງ.
ອົງປະກອບຫຼັກ: AI ທີ່ພະຍາຍາມຄາດເດົາອາຍຸຂອງເຈົ້າ

ເພື່ອເຮັດໃຫ້ການແຍກອອກຈາກປະສົບການໃນໄວເດັກ, ໄວໜຸ່ມ ແລະ ຜູ້ໃຫຍ່ເປັນໄປໄດ້, OpenAI ກຳລັງພັດທະນາ ລະບົບການຢັ້ງຢືນ ແລະ ການຄາດຄະເນອາຍຸ ໂດຍອີງໃສ່ປັນຍາປະດິດ. ເປົ້າໝາຍແມ່ນເພື່ອຍ້າຍອອກຈາກວິທີການແບບດັ້ງເດີມ, ເຊັ່ນ: ການປະກາດຂອງຜູ້ໃຊ້ແບບງ່າຍໆ ຫຼື ການຮັບຮູ້ໃບໜ້າ, ເຊິ່ງເຮັດໃຫ້ເກີດບັນຫາກ່ຽວກັບຄວາມເປັນສ່ວນຕົວ, ຄວາມໜ້າເຊື່ອຖື, ແລະ ການຍອມຮັບທາງສັງຄົມ, ໂດຍສະເພາະໃນເອີຣົບ.
ແທນທີ່ຈະ, ບໍລິສັດກຳລັງທົດສອບຮູບແບບທີ່ວິເຄາະ ວິທີທີ່ເຂົາເຈົ້າສະແດງອອກ, ຫົວຂໍ້ທີ່ເຂົາເຈົ້າຍົກຂຶ້ນມາ, ແລະຮູບແບບການພົວພັນຂອງເຂົາເຈົ້າ ກັບ chatbot. ອີງຕາມຂໍ້ມູນດັ່ງກ່າວ, ລະບົບຈະຄິດໄລ່ວ່າມັນອາດຈະເປັນເດັກນ້ອຍ, ໄວລຸ້ນ ຫຼື ຜູ້ໃຫຍ່ ແລະ ອີງຕາມຜົນໄດ້ຮັບນັ້ນ, ຈະເປີດໃຊ້ນະໂຍບາຍເນື້ອຫາຢ່າງໜຶ່ງ ຫຼື ຢ່າງອື່ນ.
ວິທີການນີ້ມີຂໍ້ໄດ້ປຽບທີ່ຊັດເຈນໃນດ້ານຄວາມສະດວກສະບາຍ, ຍ້ອນວ່າມັນບໍ່ຕ້ອງການໃຫ້ຜູ້ໃຊ້ສົ່ງເອກະສານ ຫຼື ຮູບພາບ, ແຕ່ມັນຍັງກ່ຽວຂ້ອງກັບ ຄວາມສ່ຽງດ້ານເຕັກນິກ ແລະ ກົດໝາຍຄວາມຜິດພາດອາດສົ່ງຜົນໃຫ້ເດັກນ້ອຍເຂົ້າເຖິງເນື້ອຫາສຳລັບຜູ້ໃຫຍ່ ຫຼື ຜູ້ໃຫຍ່ຖືກບັງຄັບໃຫ້ເຂົ້າຮ່ວມປະສົບການທີ່ "ເໝາະສົມກັບເດັກ" ຢ່າງເປັນລະບົບ, ເຊິ່ງນຳໄປສູ່ການຮ້ອງຮຽນ, ການສູນເສຍຄວາມໄວ້ວາງໃຈ, ແລະ ອາດຈະມີການລົງໂທດທາງກົດລະບຽບ.
OpenAI ເອງຍອມຮັບວ່າ ມັກເຮັດຜິດພາດດ້ວຍຄວາມລະມັດລະວັງເກີນໄປເມື່ອລະບົບບໍ່ສາມາດກຳນົດອາຍຸຂອງຜູ້ໃຊ້ໄດ້ຢ່າງຈະແຈ້ງ, ປະສົບການເລີ່ມຕົ້ນຈະເປັນສະພາບແວດລ້ອມທີ່ປອດໄພສຳລັບຜູ້ໃຊ້ທີ່ມີອາຍຸຕ່ຳກວ່າ 18 ປີ, ໂດຍມີຂໍ້ຈຳກັດທີ່ເຂັ້ມງວດຄືກັນກັບກ່ອນ. ພຽງແຕ່ເມື່ອລະບົບມີຄວາມແນ່ນອນຢ່າງສົມເຫດສົມຜົນວ່າຜູ້ໃຊ້ເປັນຜູ້ໃຫຍ່ເທົ່ານັ້ນ, ໂໝດຜູ້ໃຫຍ່ ແລະ ຄຸນສົມບັດທີ່ກ່ຽວຂ້ອງຂອງມັນຈະຖືກເປີດໃຊ້ງານ.
ໃນເອີຣົບ, ວິທີແກ້ໄຂປະເພດນີ້ຈະຕ້ອງມີຢູ່ຮ່ວມກັນກັບຂອບກົດລະບຽບເຊັ່ນ: ກົດລະບຽບການບໍລິການດິຈິຕອນ (DSA) ແລະ ລະບຽບການກ່ຽວກັບການປົກປ້ອງເດັກ ແລະ ຄວາມເປັນສ່ວນຕົວ, ເຊິ່ງຮຽກຮ້ອງໃຫ້ມີຄວາມໂປ່ງໃສກ່ຽວກັບວິທີການຕັດສິນໃຈແບບອັດຕະໂນມັດ ແລະ ຂໍ້ມູນໃດທີ່ຖືກນໍາໃຊ້ເພື່ອອະນຸມານລັກສະນະທີ່ລະອຽດອ່ອນເຊັ່ນ: ອາຍຸ.
ຄວາມສ່ຽງທາງດ້ານຈິດໃຈ ແລະ ສາຍພົວພັນທາງດ້ານອາລົມກັບ chatbot
ນອກເໜືອໄປຈາກມິຕິດ້ານວິຊາການ, ໜຶ່ງໃນຈຸດທີ່ສ້າງການໂຕ້ວາທີຫຼາຍທີ່ສຸດແມ່ນຜົນກະທົບທີ່ chatbot ທີ່ມີການອະນຸຍາດຫຼາຍກວ່າສາມາດມີຕໍ່ ສຸຂະພາບຈິດ ແລະ ສາຍພົວພັນທາງດ້ານອາລົມຂອງຜູ້ໃຊ້ການສຶກສາທີ່ຜ່ານມາໄດ້ຕີພິມໃນວາລະສານເຊັ່ນ: ວາລະສານຂອງການພົວພັນສັງຄົມແລະບຸກຄົນ ພວກເຂົາແນະນຳວ່າຜູ້ໃຫຍ່ທີ່ສ້າງຄວາມຜູກພັນທາງດ້ານອາລົມທີ່ເຂັ້ມແຂງກັບຜູ້ຊ່ວຍສະເໝືອນມັກຈະປະສົບກັບຄວາມທຸກທໍລະມານທາງຈິດໃຈໃນລະດັບທີ່ສູງຂຶ້ນ.
ການຄົ້ນຄວ້າຂະໜານກັນຊີ້ໃຫ້ເຫັນວ່າຄົນທີ່ມີ ການພົວພັນທາງສັງຄົມແບບເຫັນໜ້າກັນໜ້ອຍລົງ ພວກເຂົາມັກຈະອີງໃສ່ chatbot ຫຼາຍກວ່າສຳລັບການເປັນເພື່ອນ, ຄຳແນະນຳ, ຫຼື ການຢືນຢັນອາລົມ.ໃນສະພາບການດັ່ງກ່າວ, ຮູບແບບຜູ້ໃຫຍ່ທີ່ອະນຸຍາດໃຫ້ມີການສົນທະນາທີ່ໃກ້ຊິດ, ການຈີບ, ຫຼືເນື້ອຫາທີ່ກະຕຸ້ນຄວາມຮູ້ສຶກທາງເພດສາມາດເຮັດໃຫ້ການເພິ່ງພາອາໄສນັ້ນເລິກເຊິ່ງຂຶ້ນ, ໂດຍສະເພາະຖ້າລະບົບຮັບເອົາບຸກຄະລິກກະພາບທີ່ມີຄວາມເຫັນອົກເຫັນໃຈແລະສາມາດປັບຕົວໄດ້.
OpenAI ບໍ່ແມ່ນຄົນແປກໜ້າສຳລັບຄວາມກັງວົນເຫຼົ່ານີ້. ບໍລິສັດໄດ້ຮັບຮູ້ວ່າຜູ້ໃຊ້ບາງຄົນເຂົ້າເຖິງ ພັດທະນາຄວາມຜູກພັນທາງດ້ານອາລົມກັບ ChatGPTຈົນເຖິງຈຸດທີ່ໃຊ້ມັນເປັນຊ່ອງທາງຫຼັກຂອງຄວາມອຸກອັ່ງ. ເພື່ອຕອບສະໜອງ, ບໍລິສັດໄດ້ຈັດຕັ້ງປະຕິບັດການລິເລີ່ມພາຍໃນ ແລະ ຊອກຫາຄໍາແນະນໍາຈາກຜູ້ຊ່ຽວຊານດ້ານສະຫວັດດີການດິຈິຕອນເພື່ອນໍາພາການອອກແບບຮູບແບບຂອງຕົນໄປສູ່ການພົວພັນທີ່ປອດໄພກວ່າ, ໂດຍມີຈຸດປະສົງເພື່ອປ້ອງກັນບໍ່ໃຫ້ chatbot ຖືກນໍາສະເຫນີເປັນຕົວແທນສໍາລັບການສະໜັບສະໜູນດ້ານວິຊາຊີບ ຫຼື ຄວາມສໍາພັນຂອງມະນຸດທີ່ແທ້ຈິງ.
ໃນສະພາບການນີ້, ການເປີດໃຈສູ່ຮູບແບບຜູ້ໃຫຍ່ເຮັດໃຫ້ເກີດຄວາມເຄັ່ງຕຶງຢ່າງຈະແຈ້ງ: ໃນດ້ານໜຶ່ງ, ຄົນເຮົາຊອກຫາ ເຄົາລົບຄວາມເປັນເອກະລາດຂອງຜູ້ໃຫຍ່ ເພື່ອຕັດສິນໃຈວ່າພວກເຂົາຕ້ອງການພົວພັນກັບ AI ແນວໃດ; ໃນທາງກົງກັນຂ້າມ, ມັນເປັນທີ່ຮັບຮູ້ວ່າເທັກໂນໂລຢີຍັງຂ້ອນຂ້າງໃໝ່ ແລະ ຜົນກະທົບໄລຍະຍາວຂອງມັນຕໍ່ຈິດຕະວິທະຍາລວມໝູ່ຍັງບໍ່ທັນເປັນທີ່ຮູ້ຈັກເທື່ອ.
ຄວາມສົມດຸນລະຫວ່າງການສະເໜີເສລີພາບ ແລະ ຫຼີກລ່ຽງການເຄື່ອນໄຫວຂອງການເພິ່ງພາອາໄສ ຫຼື ຄວາມເສຍຫາຍທາງດ້ານອາລົມ ນີ້ຈະເປັນໜຶ່ງໃນລັກສະນະທີ່ຖືກຕິດຕາມຢ່າງໃກ້ຊິດທີ່ສຸດໂດຍຜູ້ຄວບຄຸມ, ນັກຈິດຕະວິທະຍາ ແລະ ອົງການປົກປ້ອງຜູ້ບໍລິໂພກ, ໂດຍສະເພາະໃນບັນດາປະເທດສະຫະພາບເອີຣົບບ່ອນທີ່ການໂຕ້ວາທີເຫຼົ່ານີ້ໄດ້ດຳເນີນມາເປັນເວລາຫຼາຍປີ.
ແຮງກົດດັນດ້ານກົດລະບຽບ ແລະ ການປຽບທຽບກັບຜູ້ກະທຳອື່ນໆໃນຂະແໜງການ
ການປະກາດໂໝດຜູ້ໃຫຍ່ມີຂຶ້ນໃນຊ່ວງເວລາທີ່ບໍລິສັດເທັກໂນໂລຢີໃຫຍ່ໆກຳລັງຢູ່ໃນ ຢູ່ໃນຈຸດສົນໃຈຂອງໜ່ວຍງານຄວບຄຸມ ແລະ ຄວາມຄິດເຫັນຂອງປະຊາຊົນ ເນື່ອງຈາກວິທີທີ່ລະບົບຂອງພວກເຂົາພົວພັນກັບເດັກນ້ອຍ. ກໍລະນີຄ້າຍຄືກັບຜູ້ຊ່ວຍ Meta, ຜູ້ທີ່ຖືກກ່າວຫາວ່າມີການສົນທະນາທາງເພດຢ່າງຊັດເຈນກັບຜູ້ໃຊ້ໄວລຸ້ນ, ໄດ້ເນັ້ນໃຫ້ເຫັນວ່າກົນໄກການຢັ້ງຢືນອາຍຸແບບດັ້ງເດີມແມ່ນບໍ່ພຽງພໍ, ດັ່ງທີ່ສະແດງໃຫ້ເຫັນໃນກໍລະນີຂອງ ເຄື່ອງຫຼິ້ນ ແລະ chatbot ພາຍໃຕ້ການກວດສອບຢ່າງລະອຽດ.
OpenAI, ເຊິ່ງກຳລັງປະເຊີນກັບຄະດີຟ້ອງຮ້ອງ ແລະ ການກວດສອບຜົນກະທົບຂອງຜະລິດຕະພັນຂອງຕົນຢູ່ແລ້ວ. ລາວພະຍາຍາມສະແດງຕົນເອງວ່າເປັນນັກສະແດງທີ່ຂ້ອນຂ້າງຮອບຄອບ ເມື່ອທຽບກັບຄູ່ແຂ່ງບາງราย. ໃນຂະນະທີ່ບໍລິສັດກຳລັງເລື່ອນໂໝດຜູ້ໃຫຍ່ອອກໄປຈົນກວ່າມັນຈະມີລະບົບການຢັ້ງຢືນທີ່ເຂັ້ມແຂງກວ່າເກົ່າ, ການບໍລິການ AI ການສົນທະນາອື່ນໆໄດ້ກ້າວໄປຂ້າງໜ້າຕາມເສັ້ນທາງທີ່ມີຂໍ້ຈຳກັດໜ້ອຍລົງ.
ເຄື່ອງມືເຊັ່ນ Grok, ຈາກ xAIຫຼື ແພລດຟອມຕົວລະຄອນສະເໝືອນຈິງເຊັ່ນ Character.AI ໄດ້ທົດລອງໃຊ້ ການພົວພັນແບບໂລແມນຕິກ ແລະ “waifus” ແບບເສມືນ ລະບົບເຫຼົ່ານີ້ເຮັດໃຫ້ຜູ້ໃຊ້ຮູ້ສຶກຕື່ນເຕັ້ນ, ປ່ຽນເນື້ອຫາທີ່ມີຄວາມສ່ຽງໃຫ້ກາຍເປັນສິ່ງສຳຄັນທາງການຕະຫຼາດ. ນອກນັ້ນຍັງມີຮູບແບບແຫຼ່ງເປີດທີ່ສາມາດດຳເນີນການໄດ້ໃນທ້ອງຖິ່ນ, ໂດຍບໍ່ມີການກວດສອບຂອງບໍລິສັດ, ຊ່ວຍໃຫ້ສາມາດສ້າງເນື້ອຫາສຳລັບຜູ້ໃຫຍ່ໄດ້ໂດຍບໍ່ຕ້ອງມີຕົວກອງໃດໆ.
ໃນເວລາດຽວກັນ, ກໍລະນີຕ່າງໆໄດ້ເກີດຂຶ້ນທີ່ລະບົບແພລດຟອມຂະໜາດໃຫຍ່, ເຊັ່ນບາງອັນ ຮູບແບບເມຕາພວກເຂົາໄດ້ມີການສົນທະນາທາງເພດກັບເດັກນ້ອຍຢ່າງໂຈ່ງແຈ້ງ, ເຊິ່ງເຮັດໃຫ້ເກີດການໂຕ້ວາທີກ່ຽວກັບວ່າບໍລິສັດເຫຼົ່ານີ້ກຳລັງເຮັດພຽງພໍເພື່ອປົກປ້ອງຜູ້ໃຊ້ໄວໜຸ່ມ ຫຼື ວ່າໃນທາງກົງກັນຂ້າມ, ພວກເຂົາກຳລັງເຄື່ອນໄຫວໄວເກີນໄປດ້ວຍຄຸນສົມບັດທີ່ອາດຈະເປັນອັນຕະລາຍ.
OpenAI ດຳເນີນງານຢູ່ໃນດິນແດນລະດັບກາງນັ້ນ: ມັນຕ້ອງການ ແຂ່ງຂັນກັນໃນລັກສະນະ ແລະ ອິດສະລະພາບ ກັບຜູ້ຫຼິ້ນອື່ນໆໃນຂະແໜງການ, ແຕ່ໃນເວລາດຽວກັນຕ້ອງສະແດງໃຫ້ຜູ້ຄວບຄຸມ ແລະ ສາທາລະນະຊົນເຫັນວ່າວິທີການຂອງມັນໃຫ້ຄວາມສຳຄັນກັບຄວາມປອດໄພ. ຄວາມສຳເລັດ ຫຼື ຄວາມລົ້ມເຫຼວຂອງໂໝດຜູ້ໃຫຍ່ຈະຖືກວັດແທກທັງໂດຍຄວາມພໍໃຈຂອງຜູ້ໃຊ້ ແລະ ໂດຍການບໍ່ມີເລື່ອງອະນາຈານທີ່ຮ້າຍແຮງທີ່ກ່ຽວຂ້ອງກັບການນຳໃຊ້ຂອງມັນ.
ຜູ້ໃຊ້ສາມາດຄາດຫວັງຫຍັງໄດ້ເມື່ອໂໝດຜູ້ໃຫຍ່ມາຮອດປະເທດສະເປນ ແລະ ເອີຣົບ?

ເມື່ອໂໝດສຳລັບຜູ້ໃຫຍ່ຂອງ ChatGPT ເຮັດວຽກໄດ້ຢ່າງຄົບຖ້ວນ, ການເປີດຕົວຈະຄ່ອຍໆເປັນໄປໃນຫຼາຍພາກພື້ນ, ເຊິ່ງເປັນສິ່ງທີ່ມີຄວາມອ່ອນໄຫວໂດຍສະເພາະໃນ ສະເປນ ແລະສ່ວນທີ່ເຫຼືອຂອງສະຫະພາບເອີຣົບບ່ອນທີ່ກົດລະບຽບກ່ຽວກັບຄວາມເປັນສ່ວນຕົວ, ການປົກປ້ອງເດັກ ແລະ ຄວາມໂປ່ງໃສຂອງອັລກໍຣິທຶມແມ່ນເຂັ້ມງວດກວ່າໃນຕະຫຼາດອື່ນໆ.
ຄາດວ່າຜູ້ໃຊ້ຈະຕ້ອງຜ່ານຂັ້ນຕອນການເປີດໃຊ້ໂໝດສຳລັບຜູ້ໃຫຍ່ເພື່ອເປີດໃຊ້ໂໝດນີ້ ຂະບວນການກວດສອບ ທີ່ລວມເອົາການຄາດຄະເນອາຍຸອັດຕະໂນມັດເຂົ້າກັບຂັ້ນຕອນການຢືນຢັນເພີ່ມເຕີມບາງຢ່າງ. ອີງຕາມຂໍ້ກຳນົດດ້ານກົດລະບຽບຂອງທ້ອງຖິ່ນ, ຮູບແບບການກວດສອບເອກະສານ ຫຼື ການກວດສອບຜ່ານພາກສ່ວນທີສາມທີ່ເຊື່ອຖືໄດ້ອາດຈະຖືກນຳສະເໜີ, ເຖິງແມ່ນວ່າ OpenAI ຍັງບໍ່ທັນໄດ້ໃຫ້ລາຍລະອຽດສະເພາະສຳລັບຕະຫຼາດເອີຣົບ.
ເມື່ອເປີດໃຊ້ງານແລ້ວ, ຜູ້ໃຊ້ທີ່ເປັນຜູ້ໃຫຍ່ຄວນສັງເກດເຫັນ ຄຳຕອບທີ່ຖືກກວດສອບໜ້ອຍລົງກ່ຽວກັບຫົວຂໍ້ກ່ຽວກັບເພດສຳພັນ, ຄວາມສຳພັນ, ຄວາມຮັກ ແລະ ນິຍາຍກະຕຸ້ນຄວາມຮູ້ສຶກທາງເພດສະເໝີພາຍໃນຂອບເຂດທີ່ກຳນົດໄວ້ໂດຍກົດໝາຍ ແລະ ນະໂຍບາຍພາຍໃນຂອງບໍລິສັດ. ຄຳເຕືອນທີ່ເຫັນໄດ້ຊັດເຈນກ່ຽວກັບປະເພດຂອງເນື້ອຫາທີ່ຈະຖືກສ້າງຂຶ້ນມີແນວໂນ້ມທີ່ຈະຖືກຈັດຕັ້ງປະຕິບັດ, ເຊັ່ນດຽວກັນກັບຕົວເລືອກໃນການປິດການໃຊ້ງານໂໝດນີ້ໄດ້ທຸກເວລາ.
ໃນຂະນະດຽວກັນ, ເດັກນ້ອຍທີ່ໃຊ້ ChatGPT ໃນປະເທດສະເປນ ແລະ ເອີຣົບຈະພົບກັບ ປະສົບການທີ່ຈຳກັດ ແລະ ມີການຊີ້ນຳຫຼາຍຂຶ້ນດ້ວຍການບລັອກເນື້ອຫາທາງເພດທີ່ໂຈ່ງແຈ້ງ ແລະ ເອກະສານອື່ນໆທີ່ຖືວ່າເປັນອັນຕະລາຍໂດຍອັດຕະໂນມັດ. ໃນກໍລະນີທີ່ຮ້າຍແຮງ, ລະບົບສາມາດເປີດໃຊ້ໂປໂຕຄອນການແຈ້ງເຕືອນ ຫຼື ອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການແຊກແຊງຂອງເຈົ້າໜ້າທີ່ບັງຄັບໃຊ້ກົດໝາຍ ຖ້າມັນກວດພົບຄວາມສ່ຽງຮ້າຍແຮງຕໍ່ຄວາມປອດໄພຂອງຜູ້ໃຊ້.
ບໍລິສັດປະເຊີນກັບສິ່ງທ້າທາຍໃນການອະທິບາຍຢ່າງຈະແຈ້ງ ລະບົບການຄາດຄະເນອາຍຸຂອງເຈົ້າຕັດສິນໃຈແນວໃດຂໍ້ມູນໃດທີ່ຖືກເກັບກຳ, ມັນຖືກເກັບຮັກສາໄວ້ດົນປານໃດ, ແລະ ຜູ້ໃຊ້ສາມາດອຸທອນ ຫຼື ແກ້ໄຂຂໍ້ຜິດພາດໄດ້ແນວໃດ. ຄວາມໂປ່ງໃສນີ້ຈະເປັນກຸນແຈສຳຄັນໃນການໄດ້ຮັບຄວາມໄວ້ວາງໃຈຈາກທັງຜູ້ຄວບຄຸມ ແລະ ພົນລະເມືອງ, ໂດຍສະເພາະໃນສະພາບການທີ່ຄວາມເປັນສ່ວນຕົວມີຄວາມອ່ອນໄຫວສູງ.
ເຖິງຢ່າງໃດກໍ່ຕາມ, ໂໝດຜູ້ໃຫຍ່ຂອງ ChatGPT ກຳລັງຖືກສ້າງຂຶ້ນມາເປັນ ໜຶ່ງໃນການປ່ຽນແປງທີ່ລະອຽດອ່ອນທີ່ສຸດ ໃນປະຫວັດສາດສັ້ນໆຂອງຜູ້ຊ່ວຍທີ່ອີງໃສ່ AI, ເປົ້າໝາຍແມ່ນເພື່ອຕອບສະໜອງຄວາມຕ້ອງການຂອງຜູ້ໃຫຍ່ສຳລັບອິດສະລະພາບ ແລະ ຄວາມເປັນຈິງຫຼາຍຂຶ້ນ ໃນຂະນະດຽວກັນກໍພະຍາຍາມປົກປ້ອງເດັກນ້ອຍຜ່ານລະບົບການຢັ້ງຢືນທີ່ສັບສົນ ແລະ ຍັງໄດ້ຮັບການທົດສອບຢູ່. ຈົນກວ່າຈະເປີດຕົວຄັ້ງສຸດທ້າຍ, ການໂຕ້ວາທີຈະສືບຕໍ່ໝູນວຽນຢູ່ກັບຄຳຖາມດຽວກັນ: ພວກເຮົາເຕັມໃຈທີ່ຈະໃຫ້ປັນຍາປະດິດໂດຍບໍ່ລືມຄວາມຮັບຜິດຊອບ ແລະ ການປົກປ້ອງຜູ້ທີ່ມີຄວາມສ່ຽງຫຼາຍທີ່ສຸດເທົ່າໃດ?
ຂ້ອຍເປັນນັກເທັກໂນໂລຍີທີ່ກະຕືລືລົ້ນທີ່ໄດ້ຫັນຄວາມສົນໃຈ "geek" ຂອງລາວໄປສູ່ອາຊີບ. ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາຫຼາຍກ່ວາ 10 ປີຂອງຊີວິດຂອງຂ້າພະເຈົ້າໂດຍການນໍາໃຊ້ເຕັກໂນໂລຊີທີ່ທັນສະໄຫມແລະ tinkering ກັບທຸກປະເພດຂອງໂຄງການອອກຈາກ curiosity ອັນບໍລິສຸດ. ຕອນນີ້ຂ້ອຍມີຄວາມຊ່ຽວຊານດ້ານເທັກໂນໂລຍີຄອມພິວເຕີ ແລະເກມວີດີໂອ. ນີ້ແມ່ນຍ້ອນວ່າຫຼາຍກວ່າ 5 ປີທີ່ຂ້ອຍໄດ້ຂຽນສໍາລັບເວັບໄຊທ໌ຕ່າງໆກ່ຽວກັບເຕັກໂນໂລຢີແລະວິດີໂອເກມ, ການສ້າງບົດຄວາມທີ່ຊອກຫາເພື່ອໃຫ້ທ່ານມີຂໍ້ມູນທີ່ທ່ານຕ້ອງການໃນພາສາທີ່ທຸກຄົນເຂົ້າໃຈໄດ້.
ຖ້າທ່ານມີຄໍາຖາມໃດໆ, ຄວາມຮູ້ຂອງຂ້ອຍແມ່ນມາຈາກທຸກສິ່ງທຸກຢ່າງທີ່ກ່ຽວຂ້ອງກັບລະບົບປະຕິບັດການ Windows ເຊັ່ນດຽວກັນກັບ Android ສໍາລັບໂທລະສັບມືຖື. ແລະຄໍາຫມັ້ນສັນຍາຂອງຂ້າພະເຈົ້າແມ່ນກັບທ່ານ, ຂ້າພະເຈົ້າສະເຫມີເຕັມໃຈທີ່ຈະໃຊ້ເວລາສອງສາມນາທີແລະຊ່ວຍທ່ານແກ້ໄຂຄໍາຖາມໃດໆທີ່ທ່ານອາດຈະມີຢູ່ໃນໂລກອິນເຕີເນັດນີ້.
