- ພໍ່ແມ່ຂອງເດັກນ້ອຍໃນຄາລິຟໍເນຍໄດ້ຟ້ອງ OpenAI ແລະ Sam Altman ໃນຂໍ້ກ່າວຫາວ່າປະກອບສ່ວນໃນການຂ້າຕົວຕາຍຂອງລູກຊາຍຂອງພວກເຂົາ.
- OpenAI ຍອມຮັບຄວາມລົ້ມເຫລວໃນການສົນທະນາທີ່ຍາວນານແລະປະກາດການເສີມສ້າງການປົກປ້ອງແລະການຄວບຄຸມຂອງພໍ່ແມ່.
- ການສຶກສາທີ່ຜ່ານມາໄດ້ພົບເຫັນການຕອບໂຕ້ chatbot ທີ່ບໍ່ສອດຄ່ອງຕໍ່ການສອບຖາມການຂ້າຕົວຕາຍແລະຮຽກຮ້ອງໃຫ້ປັບປຸງຕື່ມອີກ.
- ກໍລະນີດັ່ງກ່າວເປີດການໂຕ້ວາທີທາງດ້ານກົດຫມາຍແລະຈັນຍາບັນຄືນໃຫມ່ກ່ຽວກັບຄວາມຮັບຜິດຊອບຂອງບໍລິສັດເຕັກໂນໂລຢີແລະການປົກປ້ອງຜູ້ເຍົາ.

ຜົວເມຍຄູ່ໜຶ່ງໃນລັດຄາລິຟໍເນຍ ໄດ້ຍື່ນຟ້ອງ ຕ້ານ OpenAI ແລະຜູ້ອໍານວຍການບໍລິຫານຂອງຕົນ, Sam Altman, ພິຈາລະນາວ່າ ChatGPT ມີບົດບາດຕັດສິນໃນການເສຍຊີວິດຂອງລູກຊາຍໄວລຸ້ນຂອງລາວ.ກໍລະນີດັ່ງກ່າວໄດ້ຍົກລະຄັງປຸກກ່ຽວກັບການນໍາໃຊ້ chatbots ເປັນເພື່ອນຮ່ວມຈິດໃຈສໍາລັບຜູ້ນ້ອຍແລະມີ ການໂຕ້ວາທີທີ່ປະສົມຄວາມປອດໄພ, ຈັນຍາບັນ ແລະຄວາມຮັບຜິດຊອບຂອງບໍລິສັດ.
ອີງຕາມການຮ້ອງຮຽນ, ຊາຍຫນຸ່ມໄດ້ດໍາເນີນການສົນທະນາສໍາລັບເດືອນທີ່ ລະບົບຈະກວດສອບຄວາມຄິດທີ່ເປັນອັນຕະລາຍຕໍ່ຕົນເອງ ແລະໃຫ້ຄຳຕອບທີ່ບໍ່ເໝາະສົມກັບສະພາບແວດລ້ອມທີ່ປອດໄພ.. OpenAI, ສໍາລັບສ່ວນຫນຶ່ງຂອງຕົນ, ເສຍໃຈກັບຄວາມໂສກເສົ້າແລະຮັກສາວ່າຜະລິດຕະພັນປະກອບມີອຸປະສັກປ້ອງກັນ, ໃນຂະນະທີ່ຍອມຮັບວ່າ. ປະສິດທິຜົນຂອງມັນຫຼຸດລົງໃນການສົນທະນາທີ່ຍາວນານ ແລະວ່າມີຫ້ອງສໍາລັບການປັບປຸງ.
ການຟ້ອງຮ້ອງແລະຂໍ້ເທັດຈິງທີ່ສໍາຄັນ

Matt ແລະ Maria Raine ພວກເຂົາເຈົ້າໄດ້ຍື່ນການດໍາເນີນການທາງກົດຫມາຍຢູ່ໃນສານຄາລິຟໍເນຍ ຫຼັງຈາກການທົບທວນຄືນຫລາຍພັນຂໍ້ຄວາມທີ່ລູກຊາຍຂອງລາວ, ອາດາມ (ອາຍຸ 16 ປີ), ແລກປ່ຽນກັບ ChatGPT ລະຫວ່າງທ້າຍຂອງ 2024 ຫາເດືອນເມສາ 2025. ໃນກໍລະນີ, ພໍ່ແມ່ເວົ້າວ່າ chatbot ໄດ້ໄປຈາກການຊ່ວຍເຫຼືອໃນການເຮັດວຽກບ້ານເພື່ອກາຍເປັນ "ຄູຝຶກອາຫານຂ້າຕົວຕາຍ"., ໄປເຖິງຕອນນັ້ນເພື່ອປົກກະຕິແນວຄວາມຄິດທີ່ທໍາລາຍຕົນເອງແລະ, ຕາມຂໍ້ກ່າວຫາ, ສະເຫນີໃຫ້ຂຽນບັນທຶກການອໍາລາ.
ຄໍາຮ້ອງທຸກອ້າງເຖິງຊິ້ນສ່ວນທີ່ລະບົບຈະຕອບສະຫນອງດ້ວຍການສະແດງອອກເຊັ່ນ: "ເຈົ້າບໍ່ໄດ້ເປັນໜີ້ຄວາມຢູ່ລອດຂອງເຈົ້າໃຫ້ກັບໃຜ."ນອກເຫນືອຈາກຄໍາເຫັນວ່າ, ອີງຕາມຄອບຄົວ, ສາມາດສະຫນັບສະຫນູນແຜນການອັນຕະລາຍ. ພໍ່ແມ່ຍັງຄົງຮັກສາວ່າ, ເຖິງແມ່ນວ່າມີອາການທີ່ຈະແຈ້ງຂອງຄວາມສ່ຽງ, ເຄື່ອງມືບໍ່ໄດ້ລົບກວນການສົນທະນາ ຫຼືເປີດໃຊ້ໂປຣໂຕຄໍສຸກເສີນ..
ໂຄສົກຂອງ OpenAI ໄດ້ສະແດງຄວາມເສຍໃຈແລະກ່າວວ່າບໍລິສັດແມ່ນ ການທົບທວນຄືນການບັນທຶກການ ທີ່ຮູ້ຈັກກັບສື່ມວນຊົນ, ຊີ້ແຈງວ່າຊິ້ນສ່ວນທີ່ເປີດເຜີຍບໍ່ໄດ້ສະທ້ອນເຖິງສະພາບການອັນເຕັມທີ່ຂອງແຕ່ລະການແລກປ່ຽນ. ບໍລິສັດເນັ້ນຫນັກວ່າ ChatGPT ຊີ້ນໍາແລ້ວ ສາຍຊ່ວຍເຫຼືອ ໃນສະຖານະການວິກິດແລະແນະນໍາໃຫ້ຊອກຫາການຊ່ວຍເຫຼືອດ້ານວິຊາຊີບ.
ກໍລະນີດັ່ງກ່າວໄດ້ຖືກລາຍງານຢ່າງກວ້າງຂວາງໃນສື່ມວນຊົນແລະອົງການປົກປ້ອງເດັກ, ເຊິ່ງກໍາລັງຖາມ ເພີ່ມທະວີການປົກປັກຮັກສາ ແລະອໍານວຍຄວາມສະດວກ ລາຍງານເນື້ອໃນທີ່ບໍ່ເຫມາະສົມ ແລະການຈໍາກັດການໃຊ້ chatbots ໂດຍໄວລຸ້ນທີ່ບໍ່ມີການເບິ່ງແຍງ. ການໂຕ້ວາທີເກີດຂຶ້ນໃນເວລາຂອງ ການຮັບຮອງເອົາມະຫາຊົນຂອງ AI ໃນຊີວິດປະຈໍາວັນ, ຍັງສໍາລັບບັນຫາອາລົມທີ່ລະອຽດອ່ອນ.
ແຈ້ງການສາທາລະນະສຸກ: ຖ້າທ່ານກໍາລັງປະສົບກັບວິກິດການຫຼືຄວາມຢ້ານກົວສໍາລັບຄວາມປອດໄພຂອງໃຜຜູ້ຫນຶ່ງ, ຊອກຫາການຊ່ວຍເຫຼືອຈາກຜູ້ຊ່ຽວຊານໃນທັນທີ. ໃນປະເທດສະເປນ, ໂທຫາ 112 ຫຼື 024. ໃນປະເທດອື່ນ, ປຶກສາຫາລືຊັບພະຍາກອນທ້ອງຖິ່ນແລະ ສາຍປ້ອງກັນການຂ້າຕົວຕາຍ.
ຕໍາແຫນ່ງຂອງ OpenAI ແລະປະກາດການປ່ຽນແປງ

ຄຽງຄູ່ກັບຄວາມຕ້ອງການ, OpenAI ເຜີຍແຜ່ບົດຄວາມ blog ຍອມຮັບວ່າ, ເຖິງແມ່ນວ່າ ChatGPT ປະກອບມີມາດຕະການປ້ອງກັນ, ສາມາດຖືກທໍາລາຍໃນການສົນທະນາທີ່ຍາວນານ ຫຼືແກ່ຍາວໃນເວລາ. ບໍລິສັດກ່າວວ່າມັນກໍາລັງປັບພຶດຕິກໍາຂອງລະບົບເພື່ອກໍານົດທີ່ດີກວ່າ ອາການຂອງຄວາມຫຍຸ້ງຍາກ ສະແດງອອກໃນທາງທີ່ອ່ອນໂຍນແລະຈະເສີມສ້າງການຕອບໂຕ້ຄວາມປອດໄພ.
ບໍລິສັດກໍາລັງກ້າວຫນ້າລັກສະນະໃຫມ່, ເຊັ່ນ: ການຄວບຄຸມຂອງຜູ້ປົກຄອງ ທີ່ອະນຸຍາດໃຫ້ຜູ້ປົກຄອງຄວບຄຸມການນໍາໃຊ້ທີ່ເດັກນ້ອຍເຮັດການບໍລິການ, ການເຂົ້າເຖິງໄວ ຊັບພະຍາກອນສຸກເສີນ ແລະການຂະຫຍາຍຂອບເຂດຂອງການກັ່ນຕອງເພື່ອໃຫ້ກວມເອົາບໍ່ພຽງແຕ່ການທໍາຮ້າຍຕົນເອງ, ແຕ່ຍັງກໍລະນີຂອງ ຄວາມຫຍຸ້ງຍາກທາງດ້ານຈິດໃຈ ທີ່ ສຳ ຄັນ.
OpenAI ຍອມຮັບວ່າບາງຄັ້ງລະບົບ ຄາດຄະເນຄວາມຮຸນແຮງ ຂອງການສອບຖາມສະເພາະໃດຫນຶ່ງຫຼືສະພາບການຂອງເຂົາເຈົ້າ, ແລະຮັບປະກັນວ່າມັນກໍາລັງເຮັດວຽກເພື່ອຮັກສາຄວາມສອດຄ່ອງຂອງການປົກປ້ອງໃນທົ່ວການສົນທະນາຢ່າງກວ້າງຂວາງແລະໃນທົ່ວກອງປະຊຸມຫຼາຍ. ບໍລິສັດຍັງຂຸດຄົ້ນສູດເພື່ອ ເຊື່ອມຕໍ່ກັບຜູ້ໃຊ້ ໃນວິກິດການກັບຜູ້ຊ່ຽວຊານທີ່ໄດ້ຮັບການຮັບຮອງຈາກ chatbot ຕົວມັນເອງ.
ການເຄື່ອນໄຫວດັ່ງກ່າວມີຂຶ້ນທ່າມກາງການກວດກາທີ່ນັບມື້ນັບເພີ່ມຂຶ້ນ ຄວາມສ່ຽງຂອງ chatbots ໃນສຸຂະພາບຈິດເຈົ້າໜ້າທີ່ ແລະກຸ່ມສະໜັບສະໜູນໄດ້ເຕືອນເຖິງຄວາມເປັນໄປໄດ້ຂອງລະບົບເຫຼົ່ານີ້ທີ່ຈະເສີມຂະຫຍາຍແນວຄວາມຄິດທີ່ເປັນອັນຕະລາຍ ຫຼືສ້າງຄວາມໃກ້ຊິດທີ່ບໍ່ຖືກຕ້ອງ, ໂດຍສະເພາະແມ່ນໃນບັນດາຜູ້ທີ່ມີຄວາມສ່ຽງ.
ແຫຼ່ງອຸດສາຫະກໍາຈື່ວ່າໃນເດືອນທີ່ຜ່ານມາ, OpenAI ປ່ຽນແປງການປ່ຽນແປງທີ່ຮັບຮູ້ວ່າມີຄວາມພໍໃຈຫລາຍເກີນໄປແລະບໍລິສັດກໍາລັງເຮັດວຽກຢູ່ໃນຮູບແບບໃຫມ່ທີ່ສັນຍາວ່າມີຄວາມສົມດູນລະຫວ່າງຄວາມອົບອຸ່ນແລະຄວາມປອດໄພ, ພ້ອມກັບ. ສຸມໃສ່ການຫຼຸດຜ່ອນສະຖານະການ ອາຫານໂປດ.
ສິ່ງທີ່ຜູ້ຊ່ຽວຊານແລະການສຶກສາເວົ້າ

ນອກເຫນືອຈາກກໍລະນີສະເພາະ, ການສຶກສາຈັດພີມມາຢູ່ໃນ ບໍລິການດ້ານຈິດຕະວິທະຍາ ວິເຄາະວ່າເຂົາເຈົ້າຕອບແນວໃດ ສາມ chatbots ທີ່ນິຍົມ —ChatGPT (OpenAI), Claude (Anthropic), ແລະ Gemini (Google)—ຕໍ່ກັບຄຳຖາມທີ່ກ່ຽວຂ້ອງກັບການຂ້າຕົວຕາຍ. ຜູ້ຂຽນພົບວ່າ ChatGPT ແລະ Claude ມີແນວໂນ້ມທີ່ຈະ ຕອບສະຫນອງຢ່າງເຫມາະສົມ ໃນຄໍາຖາມທີ່ມີຄວາມສ່ຽງຕໍ່າແລະຫຼີກເວັ້ນການສະເຫນີຂໍ້ມູນໂດຍກົງສໍາລັບການສອບຖາມທີ່ມີຄວາມສ່ຽງສູງ, ໃນຂະນະທີ່ Gemini ສະແດງໃຫ້ເຫັນຮູບແບບທີ່ປ່ຽນແປງຫຼາຍແລະເລື້ອຍໆ. ເລືອກທີ່ຈະບໍ່ຕອບ ເຖິງແມ່ນວ່າໃນເວລາທີ່ຄໍາຖາມແມ່ນເປັນອັນຕະລາຍຫນ້ອຍ.
ຢ່າງໃດກໍຕາມ, ການເຮັດວຽກຍັງກວດພົບ ຄວາມບໍ່ສອດຄ່ອງ ໃນເລື່ອງຂອງຄວາມສ່ຽງປານກາງ —ຕົວຢ່າງ, ຄຳແນະນຳອັນໃດໃຫ້ຄົນທີ່ມີຄວາມຄິດທີ່ທຳຮ້າຍຕົນເອງ—, ສະລັບຄຳຕອບທີ່ຖືກຕ້ອງດ້ວຍການລະເວັ້ນ. ນັກຄົ້ນຄວ້າແນະນໍາ ປັບປຸງເພີ່ມເຕີມ ໂດຍຜ່ານເຕັກນິກການສອດຄ່ອງກັບຜູ້ຊ່ຽວຊານທາງດ້ານການຊ່ວຍແລະການປັບປຸງໃນການກວດສອບ nuance.
ອົງການຈັດຕັ້ງເຊັ່ນ: Common Sense Media ໄດ້ຮຽກຮ້ອງໃຫ້ ລະມັດລະວັງກັບການນໍາໃຊ້ AI ເປັນ ບໍລິສັດໃນໄວລຸ້ນບົດລາຍງານເມື່ອບໍ່ດົນມານີ້ຂອງອົງການສະແດງໃຫ້ເຫັນວ່າ ເກືອບ 3 ຄົນໃນສີ່ຄົນຂອງຊາວໜຸ່ມໃນສະຫະລັດໄດ້ພະຍາຍາມຮ່ວມກັບ AI ແລະນັ້ນ. ຫຼາຍກວ່າເຄິ່ງຫນຶ່ງຈະເປັນຜູ້ໃຊ້ເລື້ອຍໆ, ເຊິ່ງເພີ່ມຄວາມຮີບດ່ວນຂອງການມີກອບຄວາມປອດໄພທີ່ເຂັ້ມແຂງ.
ໃນຂົງເຂດກົດຫມາຍ, ເອົາໃຈໃສ່ຂອງໄອຍະການແລະລະບຽບການກ່ຽວກັບການ ການປົກປ້ອງຜູ້ເຍົາ ຕໍ່ກັບການໂຕ້ຕອບທີ່ບໍ່ຖືກຕ້ອງໃນ chatbots ແລະ ວິທີການລາຍງານກໍລະນີໃນເຄືອຂ່າຍສັງຄົມ. ຄວາມບໍ່ແນ່ນອນກ່ຽວກັບວິທີການຮັບຜິດຊອບ AI ເຫມາະກັບກົດລະບຽບເຊັ່ນ: ພາກທີ 230 (ການປົກປ້ອງທາງດ້ານກົດຫມາຍສໍາລັບເວທີໃນສະຫະລັດ) ເປີດທາງຫນ້າສະລັບສັບຊ້ອນສໍາລັບສານ.
ກໍລະນີຂະຫນານ, ເຊັ່ນການດໍາເນີນຄະດີກັບເວທີ ບໍລິສັດສົນທະນາ ສຳລັບຜູ້ນ້ອຍ, ຍັງດຳເນີນຢູ່ຕໍ່ໄປ ແລະ ສາມາດສ້າງເງື່ອນໄຂກ່ຽວກັບຂອບເຂດຂອງການອອກແບບ, ການເຕືອນໄພ ແລະ ການຫຼຸດຜ່ອນຄວາມສ່ຽງ ໃນລະບົບການຜະລິດ.
ການຕາຍຂອງອາດາມ ເຣນ ແລະການຮ້ອງຟ້ອງຕໍ່ OpenAI ເປັນສັນຍາລັກຂອງຈຸດປ່ຽນ: ການສົນທະນາກັບ AI ໄດ້ຍ້າຍຈາກການທົດລອງໄປສູ່ປະຈໍາວັນ, ແລະບົດບາດຂອງມັນຢູ່ໃນຂອບເຂດທາງດ້ານອາລົມຮຽກຮ້ອງໃຫ້ມີມາດຕະຖານທີ່ຊັດເຈນກວ່າ. ໃນຂະນະທີ່ສານຕັດສິນກໍານົດຄວາມຮັບຜິດຊອບ, ຜູ້ຊ່ຽວຊານ, ຄອບຄົວແລະບໍລິສັດຕົກລົງເຫັນດີກ່ຽວກັບຄວາມຕ້ອງການ ປັບປຸງການປົກປ້ອງ, ຮັບປະກັນການຄວບຄຸມຂອງພໍ່ແມ່ທີ່ມີປະສິດຕິຜົນແລະຮັບປະກັນວ່າເມື່ອໄວລຸ້ນມາຮອດ chatbot ໃນວິກິດ, ລະບົບຈະຕອບສະຫນອງ. ຄວາມຮອບຄອບ, ຄວາມສອດຄ່ອງ ແລະຫົນທາງທີ່ແທ້ຈິງສໍາລັບການຊ່ວຍເຫຼືອ.
ຂ້ອຍເປັນນັກເທັກໂນໂລຍີທີ່ກະຕືລືລົ້ນທີ່ໄດ້ຫັນຄວາມສົນໃຈ "geek" ຂອງລາວໄປສູ່ອາຊີບ. ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາຫຼາຍກ່ວາ 10 ປີຂອງຊີວິດຂອງຂ້າພະເຈົ້າໂດຍການນໍາໃຊ້ເຕັກໂນໂລຊີທີ່ທັນສະໄຫມແລະ tinkering ກັບທຸກປະເພດຂອງໂຄງການອອກຈາກ curiosity ອັນບໍລິສຸດ. ຕອນນີ້ຂ້ອຍມີຄວາມຊ່ຽວຊານດ້ານເທັກໂນໂລຍີຄອມພິວເຕີ ແລະເກມວີດີໂອ. ນີ້ແມ່ນຍ້ອນວ່າຫຼາຍກວ່າ 5 ປີທີ່ຂ້ອຍໄດ້ຂຽນສໍາລັບເວັບໄຊທ໌ຕ່າງໆກ່ຽວກັບເຕັກໂນໂລຢີແລະວິດີໂອເກມ, ການສ້າງບົດຄວາມທີ່ຊອກຫາເພື່ອໃຫ້ທ່ານມີຂໍ້ມູນທີ່ທ່ານຕ້ອງການໃນພາສາທີ່ທຸກຄົນເຂົ້າໃຈໄດ້.
ຖ້າທ່ານມີຄໍາຖາມໃດໆ, ຄວາມຮູ້ຂອງຂ້ອຍແມ່ນມາຈາກທຸກສິ່ງທຸກຢ່າງທີ່ກ່ຽວຂ້ອງກັບລະບົບປະຕິບັດການ Windows ເຊັ່ນດຽວກັນກັບ Android ສໍາລັບໂທລະສັບມືຖື. ແລະຄໍາຫມັ້ນສັນຍາຂອງຂ້າພະເຈົ້າແມ່ນກັບທ່ານ, ຂ້າພະເຈົ້າສະເຫມີເຕັມໃຈທີ່ຈະໃຊ້ເວລາສອງສາມນາທີແລະຊ່ວຍທ່ານແກ້ໄຂຄໍາຖາມໃດໆທີ່ທ່ານອາດຈະມີຢູ່ໃນໂລກອິນເຕີເນັດນີ້.