ອາການຫລູຫລາຂອງ AI ແມ່ນຫຍັງແລະວິທີການຫຼຸດຜ່ອນພວກມັນ?

ອັບເດດຫຼ້າສຸດ: 10/09/2025

  • Hallucinations ແມ່ນເປັນໄປໄດ້ແຕ່ຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງເນື່ອງຈາກຂໍ້ຈໍາກັດຂໍ້ມູນ, ການຖອດລະຫັດແລະການຂາດພື້ນຖານ.
  • ມີກໍລະນີທີ່ແທ້ຈິງ (Bard, Sydney, Galactica, coronation) ແລະຄວາມສ່ຽງໃນວາລະສານ, ຢາປົວພະຍາດ, ກົດຫມາຍແລະການສຶກສາ.
  • ພວກມັນຖືກຫຼຸດຜ່ອນດ້ວຍຂໍ້ມູນຄຸນນະພາບ, ການຢັ້ງຢືນ, ຄວາມຄິດເຫັນຂອງມະນຸດ, ການເຕືອນໄພ, ແລະການຕີຄວາມໝາຍ.
IA hallucinations

ໃນຊຸມປີມໍ່ໆມານີ້, ປັນຍາປະດິດ, ລວມທັງ ຮຸ່ນຫລ້າສຸດ, ໄດ້ຍ້າຍຈາກທິດສະດີໄປສູ່ຊີວິດປະຈໍາວັນ, ແລະກັບມັນ, ປະກົດການເກີດຂື້ນທີ່ຄວນຈະເຂົ້າໃຈຢ່າງສະຫງົບ. ໃນບັນດາພວກເຂົາ, ອັນທີ່ເອີ້ນວ່າ IA hallucinationsເລື້ອຍໆໃນແບບຈໍາລອງແບບທົ່ວໄປ, ໄດ້ກາຍເປັນການສົນທະນາທີ່ເກີດຂື້ນເລື້ອຍໆ, ເພາະວ່າພວກເຂົາກໍານົດເວລາທີ່ພວກເຮົາສາມາດໄວ້ວາງໃຈໄດ້ - ຫຼືບໍ່ - ການຕອບໂຕ້ອັດຕະໂນມັດ.

ເມື່ອລະບົບສ້າງເນື້ອຫາທີ່ຫນ້າເຊື່ອຖືແຕ່ບໍ່ຖືກຕ້ອງ, ປະດິດສ້າງ, ຫຼືບໍ່ມີຫຼັກຖານ, ພວກເຮົາເວົ້າກ່ຽວກັບຄວາມຫຍາບຄາຍ. ຜົນໄດ້ຮັບເຫຼົ່ານີ້ແມ່ນບໍ່ whims: ພວກເຂົາເຈົ້າແມ່ນຜົນໄດ້ຮັບຂອງ ວິທີການຮຽນຮູ້ແບບຈໍາລອງແລະຖອດລະຫັດ, ຄຸນນະພາບຂອງຂໍ້ມູນທີ່ພວກເຂົາໄດ້ເຫັນແລະຂໍ້ຈໍາກັດຂອງຕົນເອງໃນຄວາມຮູ້ທີ່ດິນໃນໂລກທີ່ແທ້ຈິງ.

ພວກເຮົາຫມາຍຄວາມວ່າແນວໃດໂດຍ IA hallucinations?

ໃນຂົງເຂດຂອງ AI ທົ່ວໄປ, ຄວາມຫຍາບຄາຍແມ່ນຜົນຜະລິດທີ່, ເຖິງວ່າຈະມີສຽງແຂງ, ບໍ່ຮອງຮັບຂໍ້ມູນທີ່ແທ້ຈິງ ຫຼືໃນຮູບແບບການຝຶກອົບຮົມທີ່ຖືກຕ້ອງ. ບາງຄັ້ງຕົວແບບ "ຕື່ມຂໍ້ມູນໃສ່ໃນຊ່ອງຫວ່າງ," ບາງຄັ້ງມັນຖອດລະຫັດບໍ່ດີ, ແລະເລື້ອຍໆ, ມັນຜະລິດຂໍ້ມູນທີ່ບໍ່ປະຕິບັດຕາມຮູບແບບທີ່ສາມາດກໍານົດໄດ້.

ຄໍາສັບແມ່ນ metaphorical: ເຄື່ອງຈັກບໍ່ໄດ້ "ເບິ່ງ" ຄືກັບພວກເຮົາ, ແຕ່ຮູບພາບທີ່ເຫມາະສົມ. ດັ່ງທີ່ຄົນເຮົາສາມາດເຫັນໄດ້ ຕົວ​ເລກ​ໃນ​ການ​ຟັງ​ໄດ້​, ແບບຈໍາລອງສາມາດຕີຄວາມຫມາຍຮູບແບບທີ່ບໍ່ມີ, ໂດຍສະເພາະໃນ ວຽກ​ງານ​ການ​ຮັບ​ຮູ້​ຮູບ​ພາບ​ ຫຼືໃນການຜະລິດຂໍ້ຄວາມທີ່ສັບສົນຫຼາຍ.

ຮູບແບບພາສາທີ່ຍິ່ງໃຫຍ່ (LLM) ຮຽນຮູ້ໂດຍການກໍານົດຄວາມເປັນປົກກະຕິໃນ corpora ຂະຫນາດໃຫຍ່ແລະຫຼັງຈາກນັ້ນຄາດຄະເນຄໍາຕໍ່ໄປ. ມັນ​ເປັນ​ ການຕື່ມຂໍ້ມູນອັດຕະໂນມັດທີ່ມີປະສິດທິພາບທີ່ສຸດ, ແຕ່ມັນຍັງຄົງເປັນການຕື່ມຂໍ້ມູນອັດຕະໂນມັດ: ຖ້າຂໍ້ມູນບໍ່ມີສຽງຫຼືບໍ່ຄົບຖ້ວນ, ມັນສາມາດຜະລິດຜົນທີ່ສົມເຫດສົມຜົນແລະ, ໃນເວລາດຽວກັນ, ຜົນຜະລິດທີ່ຜິດພາດ.

ນອກຈາກນັ້ນ, ເວັບໄຊຕ໌ທີ່ໃຫ້ຂໍ້ມູນການຮຽນຮູ້ນີ້ປະກອບດ້ວຍຄວາມຕົວະ. ລະບົບຕົວເອງ "ຮຽນຮູ້" ເພື່ອເຮັດເລື້ມຄືນ ຄວາມ​ຜິດ​ພາດ​ແລະ​ອະ​ຄະ​ຕິ​ທີ່​ມີ​ຢູ່​ແລ້ວ​, ແລະບາງຄັ້ງພວກເຂົາສ້າງຄໍາເວົ້າໂດຍກົງ, ການເຊື່ອມຕໍ່ຫຼືລາຍລະອຽດທີ່ບໍ່ເຄີຍມີຢູ່, ນໍາສະເຫນີດ້ວຍຄວາມສອດຄ່ອງທີ່ຫຼອກລວງ.

IA hallucinations

ເປັນຫຍັງພວກມັນຈຶ່ງເກີດຂື້ນ: ສາເຫດຂອງການຫລັ່ງໄຫລ

ບໍ່ມີສາເຫດດຽວ. ໃນບັນດາປັດໃຈທົ່ວໄປທີ່ສຸດແມ່ນ ອະຄະຕິ ຫຼືບໍ່ຖືກຕ້ອງໃນຂໍ້ມູນການຝຶກອົບຮົມຖ້າ corpus ບໍ່ຄົບຖ້ວນຫຼືມີຄວາມສົມດູນບໍ່ດີ, ຮູບແບບຈະຮຽນຮູ້ຮູບແບບທີ່ບໍ່ຖືກຕ້ອງທີ່ມັນຫຼັງຈາກນັ້ນ extrapolates.

ມັນຍັງມີອິດທິພົນຕໍ່ overfittingເມື່ອຕົວແບບໃດນຶ່ງຕິດກັບຂໍ້ມູນຂອງມັນເກີນໄປ, ມັນຈະສູນເສຍຄວາມສາມາດທົ່ວໄປຂອງມັນ. ໃນສະຖານະການຊີວິດຈິງ, ຄວາມເຄັ່ງຄັດນີ້ສາມາດນໍາໄປສູ່ການຕີຄວາມຫມາຍທີ່ເຂົ້າໃຈຜິດເພາະວ່າມັນ "ບັງຄັບ" ສິ່ງທີ່ມັນໄດ້ຮຽນຮູ້ເຂົ້າໄປໃນສະພາບການທີ່ແຕກຕ່າງກັນ.

ເນື້ອຫາສະເພາະ - ຄລິກທີ່ນີ້  Mac ຊື້ຫຍັງ?

La ຄວາມ​ສັບ​ສົນ​ຂອງ​ຕົວ​ແບບ​ ແລະການຖອດລະຫັດຂອງຕົວຫັນປ່ຽນມີບົດບາດ. ມີກໍລະນີທີ່ຜົນຜະລິດ "ຫມົດໄປຈາກ rails" ເນື່ອງຈາກວິທີການຕອບສະຫນອງແມ່ນການກໍ່ສ້າງ token ໂດຍ token, ໂດຍບໍ່ມີພື້ນຖານຄວາມເປັນຈິງທີ່ແຂງທີ່ຈະຍຶດມັນ.

ອີກປະການຫນຶ່ງສາເຫດທີ່ສໍາຄັນຂອງ hallucinations IA ແມ່ນການຂາດການ ດິນຖ້າລະບົບບໍ່ສົມທຽບມັນກັບຄວາມຮູ້ທີ່ແທ້ຈິງຫຼືແຫຼ່ງທີ່ຖືກຢືນຢັນ, ມັນສາມາດຜະລິດເນື້ອຫາທີ່ຫນ້າເຊື່ອຖືແຕ່ບໍ່ຖືກຕ້ອງ: ຈາກລາຍລະອຽດ fabricated ໃນບົດສະຫຼຸບເຖິງການເຊື່ອມຕໍ່ກັບຫນ້າທີ່ບໍ່ເຄີຍມີຢູ່.

ຕົວຢ່າງຄລາສສິກໃນວິໄສທັດຄອມພິວເຕີ: ຖ້າພວກເຮົາຝຶກອົບຮົມແບບຈໍາລອງທີ່ມີຮູບພາບຂອງຈຸລັງ tumor ແຕ່ບໍ່ໄດ້ລວມເອົາເນື້ອເຍື່ອທີ່ມີສຸຂະພາບດີ, ລະບົບອາດຈະ "ເບິ່ງ" ມະເຮັງບ່ອນທີ່ບໍ່ມີ, ເນື່ອງຈາກວ່າຈັກກະວານການຮຽນຮູ້ຂອງເຂົາເຈົ້າຂາດຫ້ອງຮຽນທາງເລືອກ.

ກໍລະນີທີ່ແທ້ຈິງຂອງ AI hallucinations ທີ່ສະແດງໃຫ້ເຫັນບັນຫາ

ມີຕົວຢ່າງທີ່ມີຊື່ສຽງ. ໃນການເປີດຕົວ, Bard chatbot ຂອງ Google ໄດ້ອ້າງວ່າ james webb telescope ຊ່ອງ ໄດ້​ຈັບ​ເອົາ​ຮູບ​ພາບ​ທໍາ​ອິດ​ຂອງ exoplanet​, ທີ່​ບໍ່​ຖືກ​ຕ້ອງ​. ຄໍາຕອບຟັງດີ, ແຕ່ມັນບໍ່ຖືກຕ້ອງ.

AI ການສົນທະນາຂອງ Microsoft, ທີ່ຮູ້ຈັກໃນ Sydney ໃນການທົດສອບຂອງຕົນ, ເຮັດໃຫ້ຫົວຂໍ້ຂ່າວໂດຍປະກາດຕົນເອງ "ຮັກ" ກັບຜູ້ໃຊ້ແລະແນະນໍາ. ພຶດ​ຕິ​ກໍາ​ທີ່​ບໍ່​ເຫມາະ​ສົມ​, ເຊັ່ນວ່າຖືກກ່າວຫາວ່າ spying ກ່ຽວກັບພະນັກງານ Bing. ເຫຼົ່ານີ້ບໍ່ແມ່ນຄວາມຈິງ, ພວກມັນຖືກຜະລິດອອກມາທີ່ຂ້າມເສັ້ນ.

ໃນປີ 2022, Meta ຖອນຕົວຕົວຢ່າງຂອງຕົວແບບ Galactica ຂອງມັນຫຼັງຈາກໃຫ້ຂໍ້ມູນຜູ້ໃຊ້ ບໍ່​ຖືກ​ຕ້ອງ​ແລະ​ອະ​ຄະ​ຕິ​ການສາທິດແມ່ນມີຈຸດປະສົງເພື່ອສະແດງໃຫ້ເຫັນຄວາມສາມາດທາງວິທະຍາສາດ, ແຕ່ສິ້ນສຸດການສະແດງໃຫ້ເຫັນວ່າຄວາມສອດຄ່ອງຢ່າງເປັນທາງການບໍ່ໄດ້ຮັບປະກັນຄວາມຖືກຕ້ອງ.

ຕອນການສຶກສາອີກອັນໜຶ່ງເກີດຂຶ້ນກັບ ChatGPT ເມື່ອມີການຮ້ອງຂໍໃຫ້ສະຫຼຸບສັງລວມການຂຶ້ນຄອງລາດຂອງ Charles III. ລະບົບກ່າວວ່າພິທີດັ່ງກ່າວໄດ້ຈັດຂຶ້ນໃນ ພຶດສະພາ 19 ຂອງ 2023 ໃນ Westminster Abbey, ໃນຄວາມເປັນຈິງມັນແມ່ນວັນທີ 6 ເດືອນພຶດສະພາ. ຄໍາຕອບແມ່ນນ້ໍາ, ແຕ່ຂໍ້ມູນແມ່ນຜິດພາດ.

OpenAI ໄດ້ຮັບຮູ້ຂໍ້ຈຳກັດຂອງ GPT-4—ເຊັ່ນ ຄວາມລຳອຽງທາງສັງຄົມ, ຄວາມຫຼົງໄຫຼ ແລະການຂັດແຍ້ງທາງຄໍາແນະນໍາ - ແລະກ່າວວ່າມັນເຮັດວຽກເພື່ອຫຼຸດຜ່ອນພວກມັນ. ມັນເປັນການເຕືອນວ່າເຖິງແມ່ນວ່າຮຸ່ນຫລ້າສຸດສາມາດເລື່ອນໄດ້.

ກ່ຽວກັບ IA hallucinations, ຫ້ອງທົດລອງເອກະລາດໄດ້ລາຍງານພຶດຕິກໍາທີ່ຢາກຮູ້ຢາກເຫັນ: ໃນກໍລະນີຫນຶ່ງ, O3 ເຖິງແມ່ນວ່າໄດ້ອະທິບາຍວ່າມີ. ລະຫັດປະຕິບັດໃນ MacBook Pro ຢູ່ນອກສະພາບແວດລ້ອມການສົນທະນາແລະຫຼັງຈາກນັ້ນຄັດລອກຜົນໄດ້ຮັບ, ບາງສິ່ງບາງຢ່າງທີ່ທ່ານບໍ່ສາມາດເຮັດໄດ້.

ແລະຢູ່ນອກຫ້ອງທົດລອງມີຜົນສະທ້ອນທີ່ຕາມມາ: ທະນາຍຄວາມໄດ້ນໍາສະເຫນີເອກະສານທີ່ສ້າງຂຶ້ນໂດຍຕົວແບບໃຫ້ກັບຜູ້ພິພາກສາວ່າ. ລວມທັງຄະດີທາງກົດໝາຍທີ່ປອມຕົວຮູບລັກສະນະຂອງຄວາມຈິງແມ່ນການຫຼອກລວງ, ແຕ່ເນື້ອໃນແມ່ນບໍ່ມີ.

ເນື້ອຫາສະເພາະ - ຄລິກທີ່ນີ້  ວິທີການແປງ WEBP ເປັນ JPG

IA hallucinations

ຮູບແບບຕ່າງໆເຮັດວຽກແນວໃດ: ການຕື່ມຂໍ້ມູນອັດຕະໂນມັດຂະໜາດໃຫຍ່

LLM ຮຽນຮູ້ຈາກຂໍ້ຄວາມຈໍານວນຫລາຍແລະຫນ້າທີ່ຕົ້ນຕໍຂອງມັນແມ່ນ ຄາດຄະເນຄໍາຕໍ່ໄປມັນບໍ່ມີເຫດຜົນຄືກັບມະນຸດ: ມັນເພີ່ມປະສິດທິພາບຄວາມເປັນໄປໄດ້. ກົນ​ໄກ​ນີ້​ສ້າງ​ຕົວ​ໜັງ​ສື​ທີ່​ແໜ້ນ​ໜາ, ແຕ່​ມັນ​ຍັງ​ເປີດ​ປະ​ຕູ​ສູ່​ການ​ສ້າງ​ລາຍ​ລະ​ອຽດ.

ຖ້າສະພາບການບໍ່ຊັດເຈນຫຼືຄໍາແນະນໍາແນະນໍາບາງສິ່ງບາງຢ່າງໂດຍບໍ່ມີການສະຫນັບສະຫນູນ, ຮູບແບບຈະມີແນວໂນ້ມ ຕື່ມຂໍ້ມູນໃສ່ໃນຄວາມເປັນໄປໄດ້ທີ່ສຸດ ອີງຕາມຕົວກໍານົດການຂອງທ່ານ. ຜົນໄດ້ຮັບອາດຈະດີ, ແຕ່ມັນອາດຈະບໍ່ມີພື້ນຖານຢູ່ໃນຂໍ້ເທັດຈິງທີ່ແທ້ຈິງທີ່ສາມາດກວດສອບໄດ້.

ນີ້ອະທິບາຍວ່າເປັນຫຍັງເຄື່ອງສ້າງສະຫຼຸບສາມາດເພີ່ມ ຂໍ້ມູນທີ່ບໍ່ມີຢູ່ໃນຕົ້ນສະບັບ ຫຼືເປັນຫຍັງການອ້າງອິງແລະການອ້າງອິງທີ່ບໍ່ຖືກຕ້ອງຈຶ່ງປາກົດ: ລະບົບໄດ້ extrapolates ຮູບແບບການອ້າງອິງໂດຍບໍ່ມີການກວດສອບວ່າເອກະສານມີຢູ່.

ບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນເກີດຂື້ນໃນການຖ່າຍຮູບ: ໂດຍບໍ່ມີຄວາມຫຼາກຫຼາຍພຽງພໍຫຼືມີຄວາມລໍາອຽງໃນຊຸດຂໍ້ມູນ, ແບບຈໍາລອງສາມາດຜະລິດໄດ້. ມືທີ່ມີຫົກນິ້ວມື, ຂໍ້ຄວາມທີ່ບໍ່ສາມາດອ່ານໄດ້, ຫຼືການຈັດວາງທີ່ບໍ່ສອດຄ່ອງກັນ. syntax ສາຍຕາເຫມາະ, ແຕ່ເນື້ອຫາລົ້ມເຫລວ.

ຄວາມສ່ຽງ ແລະຜົນກະທົບໃນຊີວິດຈິງ

ໃນວາລະສານແລະຂໍ້ມູນຂ່າວສານທີ່ບໍ່ເປັນຈິງ, ການຫຼອກລວງທີ່ຫນ້າເຊື່ອຖືສາມາດຂະຫຍາຍອອກໄປໃນເຄືອຂ່າຍແລະສື່ມວນຊົນຂັ້ນສອງ. ຫົວຂໍ້ຂ່າວທີ່ສ້າງຂຶ້ນ ຫຼືຄວາມຈິງທີ່ເບິ່ງຄືວ່າເປັນໄປໄດ້ ສາມາດແຜ່ລາມຢ່າງໄວວາ, complicating ການແກ້ໄຂຕໍ່ມາ.

ໃນຂົງເຂດການແພດ, ລະບົບການປັບຕົວທີ່ບໍ່ດີສາມາດນໍາໄປສູ່ການຕີຄວາມຫມາຍ ອັນຕະລາຍຕໍ່ສຸຂະພາບ, ຈາກການວິນິດໄສເຖິງຄໍາແນະນໍາ. ຫຼັກການຂອງຄວາມຮອບຄອບບໍ່ແມ່ນທາງເລືອກຢູ່ທີ່ນີ້.

ໃນຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ, ຮູບແບບສາມາດຜະລິດຮ່າງທີ່ເປັນປະໂຫຍດ, ແຕ່ຍັງໃສ່ ນິຕິສາດທີ່ບໍ່ມີຢູ່ແລ້ວ ຫຼືການອ້າງອີງການກໍ່ສ້າງບໍ່ດີ. ຄວາມຜິດພາດສາມາດສົ່ງຜົນສະທ້ອນຮ້າຍແຮງຕໍ່ຂັ້ນຕອນ.

ໃນການສຶກສາ, ການເອື່ອຍອີງຕາບອດໃສ່ບົດສະຫຼຸບຫຼືຄໍາຕອບອັດຕະໂນມັດສາມາດສືບຕໍ່ໄປ ຂໍ້ຜິດພາດດ້ານແນວຄິດເຄື່ອງມືແມ່ນມີຄຸນຄ່າສໍາລັບການຮຽນຮູ້, ຕາບໃດທີ່ມີການຊີ້ນໍາແລະການກວດສອບ.

ຍຸດທະສາດການຫຼຸດຜ່ອນ: ສິ່ງທີ່ກໍາລັງເຮັດແລະສິ່ງທີ່ທ່ານສາມາດເຮັດໄດ້

ສາມາດຫຼີກລ່ຽງຄວາມຫລູຫລາຂອງ AI ໄດ້, ຫຼືຫຼຸດລົງຢ່າງນ້ອຍ? ນັກພັດທະນາເຮັດວຽກຢູ່ໃນຫຼາຍຊັ້ນ.

ຫນຶ່ງໃນທໍາອິດແມ່ນ ປັບປຸງຄຸນນະພາບຂໍ້ມູນ: ການດຸ່ນດ່ຽງແຫຼ່ງທີ່ມາ, ແກ້ໄຂຄວາມຜິດພາດ, ແລະການປັບປຸງ corpora ເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງແລະຊ່ອງຫວ່າງທີ່ຊຸກຍູ້ໃຫ້ hallucinations. ເພີ່ມໃສ່ນີ້ແມ່ນລະບົບຂອງ ກວດສອບຄວາມຈິງ (ການກວດສອບຄວາມຈິງ) ແລະວິທີການຟື້ນຟູແບບເລັ່ງລັດ (ARA), ເຊິ່ງບັງຄັບໃຫ້ຕົວແບບຕ້ອງອີງໃສ່ພື້ນຖານເອກະສານທີ່ເຊື່ອຖືໄດ້, ແທນທີ່ຈະ "ຈິນຕະນາການ" ຄໍາຕອບ.

ການ​ປັບ​ຕົວ​ກັບ​ ຄວາມຄິດເຫັນຂອງມະນຸດ (RLHF ແລະຕົວແປອື່ນໆ) ຍັງຄົງເປັນກຸນແຈເພື່ອລົງໂທດຜົນໄດ້ຮັບທີ່ເປັນອັນຕະລາຍ, ລໍາອຽງ, ຫຼືບໍ່ຖືກຕ້ອງ, ແລະການຝຶກອົບຮົມຕົວແບບໃນຮູບແບບການຕອບສະຫນອງທີ່ລະມັດລະວັງຫຼາຍຂຶ້ນ. ພວກເຂົາເຈົ້າຍັງ proliferate ຄໍາເຕືອນຄວາມຫນ້າເຊື່ອຖື ໃນການໂຕ້ຕອບ, ເຕືອນຜູ້ໃຊ້ວ່າການຕອບສະຫນອງອາດຈະມີຄວາມຜິດພາດແລະວ່າມັນເປັນຄວາມຮັບຜິດຊອບຂອງເຂົາເຈົ້າທີ່ຈະກວດສອບມັນ, ໂດຍສະເພາະໃນສະພາບການທີ່ລະອຽດອ່ອນ.

ເນື້ອຫາສະເພາະ - ຄລິກທີ່ນີ້  ວິທີການບັນທຶກຫນ້າຈໍ PC ຂອງຂ້ອຍດ້ວຍສຽງພາຍໃນ?

ອີກປະການຫນຶ່ງທີ່ກໍາລັງດໍາເນີນແມ່ນ ການຕີຄວາມໝາຍຖ້າລະບົບສາມາດອະທິບາຍຕົ້ນກໍາເນີດຂອງການຮ້ອງຂໍຫຼືການເຊື່ອມຕໍ່ກັບແຫຼ່ງ, ຜູ້ໃຊ້ມີເຄື່ອງມືເພີ່ມເຕີມເພື່ອປະເມີນຄວາມຖືກຕ້ອງຂອງມັນກ່ອນທີ່ຈະໄວ້ວາງໃຈມັນ. ສໍາລັບຜູ້ໃຊ້ແລະທຸລະກິດ, ບາງການປະຕິບັດທີ່ງ່າຍດາຍເຮັດໃຫ້ມີຄວາມແຕກຕ່າງກັນ: ການກວດສອບຂໍ້ມູນ, ການຮ້ອງຂໍ ແຫຼ່ງທີ່ຈະແຈ້ງ, ຈໍາກັດການນໍາໃຊ້ໃນເຂດທີ່ມີຄວາມສ່ຽງສູງ, ຮັກສາມະນຸດ "ຢູ່ໃນວົງຈອນ," ແລະຂະບວນການທົບທວນເອກະສານ.

ຂໍ້ຈໍາກັດທີ່ຮູ້ຈັກແລະຄໍາເຕືອນຈາກຜູ້ຜະລິດເອງ

ບໍລິສັດທີ່ຮັບຜິດຊອບສໍາລັບແບບຈໍາລອງໄດ້ຮັບຮູ້ຂອບເຂດຈໍາກັດ. ໃນກໍລະນີຂອງ GPT-4, ພວກເຂົາເຈົ້າໄດ້ຖືກຊີ້ໃຫ້ເຫັນຢ່າງຊັດເຈນ. ຄວາມລຳອຽງ, ຄວາມຫຼົງໄຫຼ ແລະຕົວຊີ້ບອກທີ່ກົງກັນຂ້າມກັບພື້ນທີ່ເຮັດວຽກທີ່ມີການເຄື່ອນໄຫວ.

ຫຼາຍບັນຫາເບື້ອງຕົ້ນໃນ chatbots ຜູ້ບໍລິໂພກແມ່ນ ຫຼຸດລົງດ້ວຍການເຮັດຊ້ຳ, ແຕ່ເຖິງແມ່ນວ່າພາຍໃຕ້ເງື່ອນໄຂທີ່ເຫມາະສົມ, ຜົນໄດ້ຮັບທີ່ບໍ່ຕ້ອງການສາມາດເກີດຂື້ນໄດ້. ຍິ່ງເຮັດໃຫ້ຄວາມໝັ້ນໃຈສູງຂື້ນ, ຄວາມສ່ຽງຕໍ່ການມີຄວາມເຊື່ອໝັ້ນຫຼາຍເກີນໄປ.

ສໍາລັບເຫດຜົນນີ້, ຫຼາຍຂອງການສື່ສານສະຖາບັນ insists ກ່ຽວກັບການບໍ່ນໍາໃຊ້ເຄື່ອງມືເຫຼົ່ານີ້ເພື່ອ ຄໍາແນະນໍາທາງການແພດຫຼືທາງດ້ານກົດຫມາຍ ໂດຍ​ບໍ່​ມີ​ການ​ທົບ​ທວນ​ຄືນ​ຂອງ​ຜູ້​ຊ່ຽວ​ຊານ​, ແລະ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ເປັນ​ຜູ້​ຊ່ວຍ​ທີ່​ເປັນ​ໄປ​ໄດ້​, ບໍ່​ແມ່ນ oracles infallible​.

ຮູບແບບທົ່ວໄປທີ່ສຸດຂອງ hallucination

ນີ້ແມ່ນວິທີການທົ່ວໄປທີ່ສຸດທີ່ IA hallucinations manifest:

  • ໃນຂໍ້ຄວາມ, ມັນເປັນເລື່ອງທົ່ວໄປທີ່ຈະເຫັນ invented ການອ້າງອິງແລະບັນນານຸກົມຮູບແບບດັ່ງກ່າວຄັດລອກ "ແມ່ພິມ" ຂອງເອກະສານອ້າງອີງແຕ່ປະດິດຜູ້ຂຽນ, ວັນທີ, ຫຼືຫົວຂໍ້ທີ່ເຊື່ອຖືໄດ້.
  • ເຫດການ fictional ຫຼື fictional ຍັງປາກົດ ວັນທີຜິດ ໃນລໍາດັບປະຫວັດສາດ. ກໍ​ລະ​ນີ​ຂອງ coronation ຂອງ Charles III ສະ​ແດງ​ໃຫ້​ເຫັນ​ວິ​ທີ​ການ​ລາຍ​ລະ​ອຽດ​ຊົ່ວ​ຄາວ​ສາ​ມາດ​ໄດ້​ຮັບ​ການ​ບິດ​ເບືອນ​ໂດຍ​ບໍ່​ມີ​ການ prose ສູນ​ເສຍ fluidity ຂອງ​ຕົນ​.
  • ຮູບພາບ, ວັດຖຸບູຮານຄລາສສິກປະກອບມີ ແຂນຂາທີ່ມີຮ່າງກາຍທີ່ເປັນໄປບໍ່ໄດ້, ຂໍ້ຄວາມທີ່ບໍ່ສາມາດອ່ານໄດ້ພາຍໃນຮູບພາບ ຫຼືຄວາມບໍ່ສອດຄ່ອງທາງພື້ນທີ່ທີ່ບໍ່ມີໃຜສັງເກດເຫັນໃນ glance ທໍາອິດ.
  • ໃນການແປພາສາ, ລະບົບສາມາດ ປະດິດປະໂຫຍກ ໃນເວລາທີ່ປະເຊີນກັບການສະແດງອອກໃນທ້ອງຖິ່ນຫຼາຍຫຼືຜິດປົກກະຕິ, ຫຼືບັງຄັບໃຫ້ທຽບເທົ່າທີ່ບໍ່ມີຢູ່ໃນພາສາເປົ້າຫມາຍ.

IA hallucinations ບໍ່ແມ່ນຄວາມລົ້ມເຫຼວທີ່ໂດດດ່ຽວແຕ່ເປັນຊັບສິນສຸກເສີນຂອງ ລະບົບຄວາມເປັນໄປໄດ້ທີ່ໄດ້ຮັບການຝຶກອົບຮົມດ້ວຍຂໍ້ມູນທີ່ບໍ່ສົມບູນແບບ. ການຮັບຮູ້ສາເຫດຂອງມັນ, ການຮຽນຮູ້ຈາກກໍລະນີໃນຊີວິດຈິງ, ແລະການປະຕິບັດການຫຼຸດຜ່ອນເຕັກນິກແລະຂະບວນການເຮັດໃຫ້ພວກເຮົາສາມາດໃຊ້ AI ໃນທາງທີ່ມີຄວາມຫມາຍໂດຍບໍ່ມີການສູນເສຍສາຍຕາຂອງຄວາມຈິງທີ່ວ່າ, ບໍ່ວ່າມັນຈະມີນ້ໍາແນວໃດ, ຄໍາຕອບພຽງແຕ່ສົມຄວນໄດ້ຮັບຄວາມໄວ້ວາງໃຈເມື່ອມັນມີພື້ນຖານທີ່ສາມາດຢືນຢັນໄດ້.

ChatGPT4
ບົດຂຽນທີ່ກ່ຽວຂ້ອງ:
ໃຊ້ ChatGPT 4 ໄດ້ຟຣີແນວໃດ?