- Hallucinations ແມ່ນເປັນໄປໄດ້ແຕ່ຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງເນື່ອງຈາກຂໍ້ຈໍາກັດຂໍ້ມູນ, ການຖອດລະຫັດແລະການຂາດພື້ນຖານ.
- ມີກໍລະນີທີ່ແທ້ຈິງ (Bard, Sydney, Galactica, coronation) ແລະຄວາມສ່ຽງໃນວາລະສານ, ຢາປົວພະຍາດ, ກົດຫມາຍແລະການສຶກສາ.
- ພວກມັນຖືກຫຼຸດຜ່ອນດ້ວຍຂໍ້ມູນຄຸນນະພາບ, ການຢັ້ງຢືນ, ຄວາມຄິດເຫັນຂອງມະນຸດ, ການເຕືອນໄພ, ແລະການຕີຄວາມໝາຍ.

ໃນຊຸມປີມໍ່ໆມານີ້, ປັນຍາປະດິດ, ລວມທັງ ຮຸ່ນຫລ້າສຸດ, ໄດ້ຍ້າຍຈາກທິດສະດີໄປສູ່ຊີວິດປະຈໍາວັນ, ແລະກັບມັນ, ປະກົດການເກີດຂື້ນທີ່ຄວນຈະເຂົ້າໃຈຢ່າງສະຫງົບ. ໃນບັນດາພວກເຂົາ, ອັນທີ່ເອີ້ນວ່າ IA hallucinationsເລື້ອຍໆໃນແບບຈໍາລອງແບບທົ່ວໄປ, ໄດ້ກາຍເປັນການສົນທະນາທີ່ເກີດຂື້ນເລື້ອຍໆ, ເພາະວ່າພວກເຂົາກໍານົດເວລາທີ່ພວກເຮົາສາມາດໄວ້ວາງໃຈໄດ້ - ຫຼືບໍ່ - ການຕອບໂຕ້ອັດຕະໂນມັດ.
ເມື່ອລະບົບສ້າງເນື້ອຫາທີ່ຫນ້າເຊື່ອຖືແຕ່ບໍ່ຖືກຕ້ອງ, ປະດິດສ້າງ, ຫຼືບໍ່ມີຫຼັກຖານ, ພວກເຮົາເວົ້າກ່ຽວກັບຄວາມຫຍາບຄາຍ. ຜົນໄດ້ຮັບເຫຼົ່ານີ້ແມ່ນບໍ່ whims: ພວກເຂົາເຈົ້າແມ່ນຜົນໄດ້ຮັບຂອງ ວິທີການຮຽນຮູ້ແບບຈໍາລອງແລະຖອດລະຫັດ, ຄຸນນະພາບຂອງຂໍ້ມູນທີ່ພວກເຂົາໄດ້ເຫັນແລະຂໍ້ຈໍາກັດຂອງຕົນເອງໃນຄວາມຮູ້ທີ່ດິນໃນໂລກທີ່ແທ້ຈິງ.
ພວກເຮົາຫມາຍຄວາມວ່າແນວໃດໂດຍ IA hallucinations?
ໃນຂົງເຂດຂອງ AI ທົ່ວໄປ, ຄວາມຫຍາບຄາຍແມ່ນຜົນຜະລິດທີ່, ເຖິງວ່າຈະມີສຽງແຂງ, ບໍ່ຮອງຮັບຂໍ້ມູນທີ່ແທ້ຈິງ ຫຼືໃນຮູບແບບການຝຶກອົບຮົມທີ່ຖືກຕ້ອງ. ບາງຄັ້ງຕົວແບບ "ຕື່ມຂໍ້ມູນໃສ່ໃນຊ່ອງຫວ່າງ," ບາງຄັ້ງມັນຖອດລະຫັດບໍ່ດີ, ແລະເລື້ອຍໆ, ມັນຜະລິດຂໍ້ມູນທີ່ບໍ່ປະຕິບັດຕາມຮູບແບບທີ່ສາມາດກໍານົດໄດ້.
ຄໍາສັບແມ່ນ metaphorical: ເຄື່ອງຈັກບໍ່ໄດ້ "ເບິ່ງ" ຄືກັບພວກເຮົາ, ແຕ່ຮູບພາບທີ່ເຫມາະສົມ. ດັ່ງທີ່ຄົນເຮົາສາມາດເຫັນໄດ້ ຕົວເລກໃນການຟັງໄດ້, ແບບຈໍາລອງສາມາດຕີຄວາມຫມາຍຮູບແບບທີ່ບໍ່ມີ, ໂດຍສະເພາະໃນ ວຽກງານການຮັບຮູ້ຮູບພາບ ຫຼືໃນການຜະລິດຂໍ້ຄວາມທີ່ສັບສົນຫຼາຍ.
ຮູບແບບພາສາທີ່ຍິ່ງໃຫຍ່ (LLM) ຮຽນຮູ້ໂດຍການກໍານົດຄວາມເປັນປົກກະຕິໃນ corpora ຂະຫນາດໃຫຍ່ແລະຫຼັງຈາກນັ້ນຄາດຄະເນຄໍາຕໍ່ໄປ. ມັນເປັນ ການຕື່ມຂໍ້ມູນອັດຕະໂນມັດທີ່ມີປະສິດທິພາບທີ່ສຸດ, ແຕ່ມັນຍັງຄົງເປັນການຕື່ມຂໍ້ມູນອັດຕະໂນມັດ: ຖ້າຂໍ້ມູນບໍ່ມີສຽງຫຼືບໍ່ຄົບຖ້ວນ, ມັນສາມາດຜະລິດຜົນທີ່ສົມເຫດສົມຜົນແລະ, ໃນເວລາດຽວກັນ, ຜົນຜະລິດທີ່ຜິດພາດ.
ນອກຈາກນັ້ນ, ເວັບໄຊຕ໌ທີ່ໃຫ້ຂໍ້ມູນການຮຽນຮູ້ນີ້ປະກອບດ້ວຍຄວາມຕົວະ. ລະບົບຕົວເອງ "ຮຽນຮູ້" ເພື່ອເຮັດເລື້ມຄືນ ຄວາມຜິດພາດແລະອະຄະຕິທີ່ມີຢູ່ແລ້ວ, ແລະບາງຄັ້ງພວກເຂົາສ້າງຄໍາເວົ້າໂດຍກົງ, ການເຊື່ອມຕໍ່ຫຼືລາຍລະອຽດທີ່ບໍ່ເຄີຍມີຢູ່, ນໍາສະເຫນີດ້ວຍຄວາມສອດຄ່ອງທີ່ຫຼອກລວງ.
ເປັນຫຍັງພວກມັນຈຶ່ງເກີດຂື້ນ: ສາເຫດຂອງການຫລັ່ງໄຫລ
ບໍ່ມີສາເຫດດຽວ. ໃນບັນດາປັດໃຈທົ່ວໄປທີ່ສຸດແມ່ນ ອະຄະຕິ ຫຼືບໍ່ຖືກຕ້ອງໃນຂໍ້ມູນການຝຶກອົບຮົມຖ້າ corpus ບໍ່ຄົບຖ້ວນຫຼືມີຄວາມສົມດູນບໍ່ດີ, ຮູບແບບຈະຮຽນຮູ້ຮູບແບບທີ່ບໍ່ຖືກຕ້ອງທີ່ມັນຫຼັງຈາກນັ້ນ extrapolates.
ມັນຍັງມີອິດທິພົນຕໍ່ overfittingເມື່ອຕົວແບບໃດນຶ່ງຕິດກັບຂໍ້ມູນຂອງມັນເກີນໄປ, ມັນຈະສູນເສຍຄວາມສາມາດທົ່ວໄປຂອງມັນ. ໃນສະຖານະການຊີວິດຈິງ, ຄວາມເຄັ່ງຄັດນີ້ສາມາດນໍາໄປສູ່ການຕີຄວາມຫມາຍທີ່ເຂົ້າໃຈຜິດເພາະວ່າມັນ "ບັງຄັບ" ສິ່ງທີ່ມັນໄດ້ຮຽນຮູ້ເຂົ້າໄປໃນສະພາບການທີ່ແຕກຕ່າງກັນ.
La ຄວາມສັບສົນຂອງຕົວແບບ ແລະການຖອດລະຫັດຂອງຕົວຫັນປ່ຽນມີບົດບາດ. ມີກໍລະນີທີ່ຜົນຜະລິດ "ຫມົດໄປຈາກ rails" ເນື່ອງຈາກວິທີການຕອບສະຫນອງແມ່ນການກໍ່ສ້າງ token ໂດຍ token, ໂດຍບໍ່ມີພື້ນຖານຄວາມເປັນຈິງທີ່ແຂງທີ່ຈະຍຶດມັນ.
ອີກປະການຫນຶ່ງສາເຫດທີ່ສໍາຄັນຂອງ hallucinations IA ແມ່ນການຂາດການ ດິນຖ້າລະບົບບໍ່ສົມທຽບມັນກັບຄວາມຮູ້ທີ່ແທ້ຈິງຫຼືແຫຼ່ງທີ່ຖືກຢືນຢັນ, ມັນສາມາດຜະລິດເນື້ອຫາທີ່ຫນ້າເຊື່ອຖືແຕ່ບໍ່ຖືກຕ້ອງ: ຈາກລາຍລະອຽດ fabricated ໃນບົດສະຫຼຸບເຖິງການເຊື່ອມຕໍ່ກັບຫນ້າທີ່ບໍ່ເຄີຍມີຢູ່.
ຕົວຢ່າງຄລາສສິກໃນວິໄສທັດຄອມພິວເຕີ: ຖ້າພວກເຮົາຝຶກອົບຮົມແບບຈໍາລອງທີ່ມີຮູບພາບຂອງຈຸລັງ tumor ແຕ່ບໍ່ໄດ້ລວມເອົາເນື້ອເຍື່ອທີ່ມີສຸຂະພາບດີ, ລະບົບອາດຈະ "ເບິ່ງ" ມະເຮັງບ່ອນທີ່ບໍ່ມີ, ເນື່ອງຈາກວ່າຈັກກະວານການຮຽນຮູ້ຂອງເຂົາເຈົ້າຂາດຫ້ອງຮຽນທາງເລືອກ.
ກໍລະນີທີ່ແທ້ຈິງຂອງ AI hallucinations ທີ່ສະແດງໃຫ້ເຫັນບັນຫາ
ມີຕົວຢ່າງທີ່ມີຊື່ສຽງ. ໃນການເປີດຕົວ, Bard chatbot ຂອງ Google ໄດ້ອ້າງວ່າ james webb telescope ຊ່ອງ ໄດ້ຈັບເອົາຮູບພາບທໍາອິດຂອງ exoplanet, ທີ່ບໍ່ຖືກຕ້ອງ. ຄໍາຕອບຟັງດີ, ແຕ່ມັນບໍ່ຖືກຕ້ອງ.
AI ການສົນທະນາຂອງ Microsoft, ທີ່ຮູ້ຈັກໃນ Sydney ໃນການທົດສອບຂອງຕົນ, ເຮັດໃຫ້ຫົວຂໍ້ຂ່າວໂດຍປະກາດຕົນເອງ "ຮັກ" ກັບຜູ້ໃຊ້ແລະແນະນໍາ. ພຶດຕິກໍາທີ່ບໍ່ເຫມາະສົມ, ເຊັ່ນວ່າຖືກກ່າວຫາວ່າ spying ກ່ຽວກັບພະນັກງານ Bing. ເຫຼົ່ານີ້ບໍ່ແມ່ນຄວາມຈິງ, ພວກມັນຖືກຜະລິດອອກມາທີ່ຂ້າມເສັ້ນ.
ໃນປີ 2022, Meta ຖອນຕົວຕົວຢ່າງຂອງຕົວແບບ Galactica ຂອງມັນຫຼັງຈາກໃຫ້ຂໍ້ມູນຜູ້ໃຊ້ ບໍ່ຖືກຕ້ອງແລະອະຄະຕິການສາທິດແມ່ນມີຈຸດປະສົງເພື່ອສະແດງໃຫ້ເຫັນຄວາມສາມາດທາງວິທະຍາສາດ, ແຕ່ສິ້ນສຸດການສະແດງໃຫ້ເຫັນວ່າຄວາມສອດຄ່ອງຢ່າງເປັນທາງການບໍ່ໄດ້ຮັບປະກັນຄວາມຖືກຕ້ອງ.
ຕອນການສຶກສາອີກອັນໜຶ່ງເກີດຂຶ້ນກັບ ChatGPT ເມື່ອມີການຮ້ອງຂໍໃຫ້ສະຫຼຸບສັງລວມການຂຶ້ນຄອງລາດຂອງ Charles III. ລະບົບກ່າວວ່າພິທີດັ່ງກ່າວໄດ້ຈັດຂຶ້ນໃນ ພຶດສະພາ 19 ຂອງ 2023 ໃນ Westminster Abbey, ໃນຄວາມເປັນຈິງມັນແມ່ນວັນທີ 6 ເດືອນພຶດສະພາ. ຄໍາຕອບແມ່ນນ້ໍາ, ແຕ່ຂໍ້ມູນແມ່ນຜິດພາດ.
OpenAI ໄດ້ຮັບຮູ້ຂໍ້ຈຳກັດຂອງ GPT-4—ເຊັ່ນ ຄວາມລຳອຽງທາງສັງຄົມ, ຄວາມຫຼົງໄຫຼ ແລະການຂັດແຍ້ງທາງຄໍາແນະນໍາ - ແລະກ່າວວ່າມັນເຮັດວຽກເພື່ອຫຼຸດຜ່ອນພວກມັນ. ມັນເປັນການເຕືອນວ່າເຖິງແມ່ນວ່າຮຸ່ນຫລ້າສຸດສາມາດເລື່ອນໄດ້.
ກ່ຽວກັບ IA hallucinations, ຫ້ອງທົດລອງເອກະລາດໄດ້ລາຍງານພຶດຕິກໍາທີ່ຢາກຮູ້ຢາກເຫັນ: ໃນກໍລະນີຫນຶ່ງ, O3 ເຖິງແມ່ນວ່າໄດ້ອະທິບາຍວ່າມີ. ລະຫັດປະຕິບັດໃນ MacBook Pro ຢູ່ນອກສະພາບແວດລ້ອມການສົນທະນາແລະຫຼັງຈາກນັ້ນຄັດລອກຜົນໄດ້ຮັບ, ບາງສິ່ງບາງຢ່າງທີ່ທ່ານບໍ່ສາມາດເຮັດໄດ້.
ແລະຢູ່ນອກຫ້ອງທົດລອງມີຜົນສະທ້ອນທີ່ຕາມມາ: ທະນາຍຄວາມໄດ້ນໍາສະເຫນີເອກະສານທີ່ສ້າງຂຶ້ນໂດຍຕົວແບບໃຫ້ກັບຜູ້ພິພາກສາວ່າ. ລວມທັງຄະດີທາງກົດໝາຍທີ່ປອມຕົວຮູບລັກສະນະຂອງຄວາມຈິງແມ່ນການຫຼອກລວງ, ແຕ່ເນື້ອໃນແມ່ນບໍ່ມີ.

ຮູບແບບຕ່າງໆເຮັດວຽກແນວໃດ: ການຕື່ມຂໍ້ມູນອັດຕະໂນມັດຂະໜາດໃຫຍ່
LLM ຮຽນຮູ້ຈາກຂໍ້ຄວາມຈໍານວນຫລາຍແລະຫນ້າທີ່ຕົ້ນຕໍຂອງມັນແມ່ນ ຄາດຄະເນຄໍາຕໍ່ໄປມັນບໍ່ມີເຫດຜົນຄືກັບມະນຸດ: ມັນເພີ່ມປະສິດທິພາບຄວາມເປັນໄປໄດ້. ກົນໄກນີ້ສ້າງຕົວໜັງສືທີ່ແໜ້ນໜາ, ແຕ່ມັນຍັງເປີດປະຕູສູ່ການສ້າງລາຍລະອຽດ.
ຖ້າສະພາບການບໍ່ຊັດເຈນຫຼືຄໍາແນະນໍາແນະນໍາບາງສິ່ງບາງຢ່າງໂດຍບໍ່ມີການສະຫນັບສະຫນູນ, ຮູບແບບຈະມີແນວໂນ້ມ ຕື່ມຂໍ້ມູນໃສ່ໃນຄວາມເປັນໄປໄດ້ທີ່ສຸດ ອີງຕາມຕົວກໍານົດການຂອງທ່ານ. ຜົນໄດ້ຮັບອາດຈະດີ, ແຕ່ມັນອາດຈະບໍ່ມີພື້ນຖານຢູ່ໃນຂໍ້ເທັດຈິງທີ່ແທ້ຈິງທີ່ສາມາດກວດສອບໄດ້.
ນີ້ອະທິບາຍວ່າເປັນຫຍັງເຄື່ອງສ້າງສະຫຼຸບສາມາດເພີ່ມ ຂໍ້ມູນທີ່ບໍ່ມີຢູ່ໃນຕົ້ນສະບັບ ຫຼືເປັນຫຍັງການອ້າງອິງແລະການອ້າງອິງທີ່ບໍ່ຖືກຕ້ອງຈຶ່ງປາກົດ: ລະບົບໄດ້ extrapolates ຮູບແບບການອ້າງອິງໂດຍບໍ່ມີການກວດສອບວ່າເອກະສານມີຢູ່.
ບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນເກີດຂື້ນໃນການຖ່າຍຮູບ: ໂດຍບໍ່ມີຄວາມຫຼາກຫຼາຍພຽງພໍຫຼືມີຄວາມລໍາອຽງໃນຊຸດຂໍ້ມູນ, ແບບຈໍາລອງສາມາດຜະລິດໄດ້. ມືທີ່ມີຫົກນິ້ວມື, ຂໍ້ຄວາມທີ່ບໍ່ສາມາດອ່ານໄດ້, ຫຼືການຈັດວາງທີ່ບໍ່ສອດຄ່ອງກັນ. syntax ສາຍຕາເຫມາະ, ແຕ່ເນື້ອຫາລົ້ມເຫລວ.
ຄວາມສ່ຽງ ແລະຜົນກະທົບໃນຊີວິດຈິງ
ໃນວາລະສານແລະຂໍ້ມູນຂ່າວສານທີ່ບໍ່ເປັນຈິງ, ການຫຼອກລວງທີ່ຫນ້າເຊື່ອຖືສາມາດຂະຫຍາຍອອກໄປໃນເຄືອຂ່າຍແລະສື່ມວນຊົນຂັ້ນສອງ. ຫົວຂໍ້ຂ່າວທີ່ສ້າງຂຶ້ນ ຫຼືຄວາມຈິງທີ່ເບິ່ງຄືວ່າເປັນໄປໄດ້ ສາມາດແຜ່ລາມຢ່າງໄວວາ, complicating ການແກ້ໄຂຕໍ່ມາ.
ໃນຂົງເຂດການແພດ, ລະບົບການປັບຕົວທີ່ບໍ່ດີສາມາດນໍາໄປສູ່ການຕີຄວາມຫມາຍ ອັນຕະລາຍຕໍ່ສຸຂະພາບ, ຈາກການວິນິດໄສເຖິງຄໍາແນະນໍາ. ຫຼັກການຂອງຄວາມຮອບຄອບບໍ່ແມ່ນທາງເລືອກຢູ່ທີ່ນີ້.
ໃນຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ, ຮູບແບບສາມາດຜະລິດຮ່າງທີ່ເປັນປະໂຫຍດ, ແຕ່ຍັງໃສ່ ນິຕິສາດທີ່ບໍ່ມີຢູ່ແລ້ວ ຫຼືການອ້າງອີງການກໍ່ສ້າງບໍ່ດີ. ຄວາມຜິດພາດສາມາດສົ່ງຜົນສະທ້ອນຮ້າຍແຮງຕໍ່ຂັ້ນຕອນ.
ໃນການສຶກສາ, ການເອື່ອຍອີງຕາບອດໃສ່ບົດສະຫຼຸບຫຼືຄໍາຕອບອັດຕະໂນມັດສາມາດສືບຕໍ່ໄປ ຂໍ້ຜິດພາດດ້ານແນວຄິດເຄື່ອງມືແມ່ນມີຄຸນຄ່າສໍາລັບການຮຽນຮູ້, ຕາບໃດທີ່ມີການຊີ້ນໍາແລະການກວດສອບ.
ຍຸດທະສາດການຫຼຸດຜ່ອນ: ສິ່ງທີ່ກໍາລັງເຮັດແລະສິ່ງທີ່ທ່ານສາມາດເຮັດໄດ້
ສາມາດຫຼີກລ່ຽງຄວາມຫລູຫລາຂອງ AI ໄດ້, ຫຼືຫຼຸດລົງຢ່າງນ້ອຍ? ນັກພັດທະນາເຮັດວຽກຢູ່ໃນຫຼາຍຊັ້ນ.
ຫນຶ່ງໃນທໍາອິດແມ່ນ ປັບປຸງຄຸນນະພາບຂໍ້ມູນ: ການດຸ່ນດ່ຽງແຫຼ່ງທີ່ມາ, ແກ້ໄຂຄວາມຜິດພາດ, ແລະການປັບປຸງ corpora ເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງແລະຊ່ອງຫວ່າງທີ່ຊຸກຍູ້ໃຫ້ hallucinations. ເພີ່ມໃສ່ນີ້ແມ່ນລະບົບຂອງ ກວດສອບຄວາມຈິງ (ການກວດສອບຄວາມຈິງ) ແລະວິທີການຟື້ນຟູແບບເລັ່ງລັດ (ARA), ເຊິ່ງບັງຄັບໃຫ້ຕົວແບບຕ້ອງອີງໃສ່ພື້ນຖານເອກະສານທີ່ເຊື່ອຖືໄດ້, ແທນທີ່ຈະ "ຈິນຕະນາການ" ຄໍາຕອບ.
ການປັບຕົວກັບ ຄວາມຄິດເຫັນຂອງມະນຸດ (RLHF ແລະຕົວແປອື່ນໆ) ຍັງຄົງເປັນກຸນແຈເພື່ອລົງໂທດຜົນໄດ້ຮັບທີ່ເປັນອັນຕະລາຍ, ລໍາອຽງ, ຫຼືບໍ່ຖືກຕ້ອງ, ແລະການຝຶກອົບຮົມຕົວແບບໃນຮູບແບບການຕອບສະຫນອງທີ່ລະມັດລະວັງຫຼາຍຂຶ້ນ. ພວກເຂົາເຈົ້າຍັງ proliferate ຄໍາເຕືອນຄວາມຫນ້າເຊື່ອຖື ໃນການໂຕ້ຕອບ, ເຕືອນຜູ້ໃຊ້ວ່າການຕອບສະຫນອງອາດຈະມີຄວາມຜິດພາດແລະວ່າມັນເປັນຄວາມຮັບຜິດຊອບຂອງເຂົາເຈົ້າທີ່ຈະກວດສອບມັນ, ໂດຍສະເພາະໃນສະພາບການທີ່ລະອຽດອ່ອນ.
ອີກປະການຫນຶ່ງທີ່ກໍາລັງດໍາເນີນແມ່ນ ການຕີຄວາມໝາຍຖ້າລະບົບສາມາດອະທິບາຍຕົ້ນກໍາເນີດຂອງການຮ້ອງຂໍຫຼືການເຊື່ອມຕໍ່ກັບແຫຼ່ງ, ຜູ້ໃຊ້ມີເຄື່ອງມືເພີ່ມເຕີມເພື່ອປະເມີນຄວາມຖືກຕ້ອງຂອງມັນກ່ອນທີ່ຈະໄວ້ວາງໃຈມັນ. ສໍາລັບຜູ້ໃຊ້ແລະທຸລະກິດ, ບາງການປະຕິບັດທີ່ງ່າຍດາຍເຮັດໃຫ້ມີຄວາມແຕກຕ່າງກັນ: ການກວດສອບຂໍ້ມູນ, ການຮ້ອງຂໍ ແຫຼ່ງທີ່ຈະແຈ້ງ, ຈໍາກັດການນໍາໃຊ້ໃນເຂດທີ່ມີຄວາມສ່ຽງສູງ, ຮັກສາມະນຸດ "ຢູ່ໃນວົງຈອນ," ແລະຂະບວນການທົບທວນເອກະສານ.
ຂໍ້ຈໍາກັດທີ່ຮູ້ຈັກແລະຄໍາເຕືອນຈາກຜູ້ຜະລິດເອງ
ບໍລິສັດທີ່ຮັບຜິດຊອບສໍາລັບແບບຈໍາລອງໄດ້ຮັບຮູ້ຂອບເຂດຈໍາກັດ. ໃນກໍລະນີຂອງ GPT-4, ພວກເຂົາເຈົ້າໄດ້ຖືກຊີ້ໃຫ້ເຫັນຢ່າງຊັດເຈນ. ຄວາມລຳອຽງ, ຄວາມຫຼົງໄຫຼ ແລະຕົວຊີ້ບອກທີ່ກົງກັນຂ້າມກັບພື້ນທີ່ເຮັດວຽກທີ່ມີການເຄື່ອນໄຫວ.
ຫຼາຍບັນຫາເບື້ອງຕົ້ນໃນ chatbots ຜູ້ບໍລິໂພກແມ່ນ ຫຼຸດລົງດ້ວຍການເຮັດຊ້ຳ, ແຕ່ເຖິງແມ່ນວ່າພາຍໃຕ້ເງື່ອນໄຂທີ່ເຫມາະສົມ, ຜົນໄດ້ຮັບທີ່ບໍ່ຕ້ອງການສາມາດເກີດຂື້ນໄດ້. ຍິ່ງເຮັດໃຫ້ຄວາມໝັ້ນໃຈສູງຂື້ນ, ຄວາມສ່ຽງຕໍ່ການມີຄວາມເຊື່ອໝັ້ນຫຼາຍເກີນໄປ.
ສໍາລັບເຫດຜົນນີ້, ຫຼາຍຂອງການສື່ສານສະຖາບັນ insists ກ່ຽວກັບການບໍ່ນໍາໃຊ້ເຄື່ອງມືເຫຼົ່ານີ້ເພື່ອ ຄໍາແນະນໍາທາງການແພດຫຼືທາງດ້ານກົດຫມາຍ ໂດຍບໍ່ມີການທົບທວນຄືນຂອງຜູ້ຊ່ຽວຊານ, ແລະວ່າພວກເຂົາເຈົ້າເປັນຜູ້ຊ່ວຍທີ່ເປັນໄປໄດ້, ບໍ່ແມ່ນ oracles infallible.
ຮູບແບບທົ່ວໄປທີ່ສຸດຂອງ hallucination
ນີ້ແມ່ນວິທີການທົ່ວໄປທີ່ສຸດທີ່ IA hallucinations manifest:
- ໃນຂໍ້ຄວາມ, ມັນເປັນເລື່ອງທົ່ວໄປທີ່ຈະເຫັນ invented ການອ້າງອິງແລະບັນນານຸກົມຮູບແບບດັ່ງກ່າວຄັດລອກ "ແມ່ພິມ" ຂອງເອກະສານອ້າງອີງແຕ່ປະດິດຜູ້ຂຽນ, ວັນທີ, ຫຼືຫົວຂໍ້ທີ່ເຊື່ອຖືໄດ້.
- ເຫດການ fictional ຫຼື fictional ຍັງປາກົດ ວັນທີຜິດ ໃນລໍາດັບປະຫວັດສາດ. ກໍລະນີຂອງ coronation ຂອງ Charles III ສະແດງໃຫ້ເຫັນວິທີການລາຍລະອຽດຊົ່ວຄາວສາມາດໄດ້ຮັບການບິດເບືອນໂດຍບໍ່ມີການ prose ສູນເສຍ fluidity ຂອງຕົນ.
- ຮູບພາບ, ວັດຖຸບູຮານຄລາສສິກປະກອບມີ ແຂນຂາທີ່ມີຮ່າງກາຍທີ່ເປັນໄປບໍ່ໄດ້, ຂໍ້ຄວາມທີ່ບໍ່ສາມາດອ່ານໄດ້ພາຍໃນຮູບພາບ ຫຼືຄວາມບໍ່ສອດຄ່ອງທາງພື້ນທີ່ທີ່ບໍ່ມີໃຜສັງເກດເຫັນໃນ glance ທໍາອິດ.
- ໃນການແປພາສາ, ລະບົບສາມາດ ປະດິດປະໂຫຍກ ໃນເວລາທີ່ປະເຊີນກັບການສະແດງອອກໃນທ້ອງຖິ່ນຫຼາຍຫຼືຜິດປົກກະຕິ, ຫຼືບັງຄັບໃຫ້ທຽບເທົ່າທີ່ບໍ່ມີຢູ່ໃນພາສາເປົ້າຫມາຍ.
IA hallucinations ບໍ່ແມ່ນຄວາມລົ້ມເຫຼວທີ່ໂດດດ່ຽວແຕ່ເປັນຊັບສິນສຸກເສີນຂອງ ລະບົບຄວາມເປັນໄປໄດ້ທີ່ໄດ້ຮັບການຝຶກອົບຮົມດ້ວຍຂໍ້ມູນທີ່ບໍ່ສົມບູນແບບ. ການຮັບຮູ້ສາເຫດຂອງມັນ, ການຮຽນຮູ້ຈາກກໍລະນີໃນຊີວິດຈິງ, ແລະການປະຕິບັດການຫຼຸດຜ່ອນເຕັກນິກແລະຂະບວນການເຮັດໃຫ້ພວກເຮົາສາມາດໃຊ້ AI ໃນທາງທີ່ມີຄວາມຫມາຍໂດຍບໍ່ມີການສູນເສຍສາຍຕາຂອງຄວາມຈິງທີ່ວ່າ, ບໍ່ວ່າມັນຈະມີນ້ໍາແນວໃດ, ຄໍາຕອບພຽງແຕ່ສົມຄວນໄດ້ຮັບຄວາມໄວ້ວາງໃຈເມື່ອມັນມີພື້ນຖານທີ່ສາມາດຢືນຢັນໄດ້.
ບັນນາທິການຊ່ຽວຊານໃນບັນຫາເຕັກໂນໂລຢີແລະອິນເຕີເນັດທີ່ມີປະສົບການຫຼາຍກວ່າສິບປີໃນສື່ດິຈິຕອນທີ່ແຕກຕ່າງກັນ. ຂ້າພະເຈົ້າໄດ້ເຮັດວຽກເປັນບັນນາທິການແລະຜູ້ສ້າງເນື້ອຫາສໍາລັບ e-commerce, ການສື່ສານ, ການຕະຫຼາດອອນໄລນ໌ແລະບໍລິສັດໂຄສະນາ. ຂ້າພະເຈົ້າຍັງໄດ້ຂຽນກ່ຽວກັບເສດຖະກິດ, ການເງິນແລະເວັບໄຊທ໌ຂອງຂະແຫນງການອື່ນໆ. ການເຮັດວຽກຂອງຂ້ອຍຍັງເປັນ passion ຂອງຂ້ອຍ. ໃນປັດຈຸບັນ, ໂດຍຜ່ານບົດຄວາມຂອງຂ້າພະເຈົ້າໃນ Tecnobits, ຂ້າພະເຈົ້າພະຍາຍາມຄົ້ນຫາຂ່າວທັງຫມົດແລະໂອກາດໃຫມ່ທີ່ໂລກຂອງເຕັກໂນໂລຢີສະເຫນີໃຫ້ພວກເຮົາທຸກໆມື້ເພື່ອປັບປຸງຊີວິດຂອງພວກເຮົາ.

