- ການໂຈມຕີເຊື່ອງການເຕືອນ multimodal ທີ່ເບິ່ງບໍ່ເຫັນຢູ່ໃນຮູບພາບທີ່, ໃນເວລາທີ່ຂະຫນາດ Gemini, ປະຕິບັດໂດຍບໍ່ມີການເຕືອນ.
- vector leverages preprocessing ຮູບພາບ (224x224/512x512) ແລະ triggers ເຄື່ອງມືເຊັ່ນ Zapier exfiltrate ຂໍ້ມູນ.
- ປະເທດເພື່ອນບ້ານທີ່ໃກ້ທີ່ສຸດ, bilinear, ແລະ bicubic algorithms ແມ່ນມີຄວາມສ່ຽງ; ເຄື່ອງມື Anamorpher ອະນຸຍາດໃຫ້ພວກເຂົາຖືກສີດ.
- ຜູ້ຊ່ຽວຊານແນະນຳໃຫ້ຫຼີກລ່ຽງການຫຼຸດຂະໜາດລົງ, ເບິ່ງຕົວຢ່າງການປ້ອນຂໍ້ມູນ, ແລະຮຽກຮ້ອງໃຫ້ມີການຢືນຢັນກ່ອນທີ່ຈະດໍາເນີນການທີ່ລະອຽດອ່ອນ.

ກຸ່ມນັກຄົ້ນຄວ້າໄດ້ບັນທຶກວິທີການບຸກລຸກທີ່ມີຄວາມສາມາດ ການລັກຂໍ້ມູນສ່ວນຕົວໂດຍການໃສ່ຄໍາແນະນໍາທີ່ເຊື່ອງໄວ້ເຂົ້າໄປໃນຮູບພາບເມື່ອໄຟລ໌ເຫຼົ່ານັ້ນຖືກອັບໂຫລດໃສ່ລະບົບ multimodal ເຊັ່ນ Gemini, ການປະມວນຜົນອັດຕະໂນມັດຈະເປີດໃຊ້ຄໍາສັ່ງ, ແລະ AI ປະຕິບັດຕາມພວກມັນຄືກັບວ່າພວກມັນຖືກຕ້ອງ.
ການຄົ້ນພົບ, ລາຍງານໂດຍ The Trail of Bits, ມີຜົນກະທົບຕໍ່ສະພາບແວດລ້ອມການຜະລິດ. ເຊັ່ນ Gemini CLI, Vertex AI Studio, Gemini API, Google Assistant ຫຼື GensparkGoogle ໄດ້ຮັບຮູ້ວ່ານີ້ແມ່ນສິ່ງທ້າທາຍທີ່ສໍາຄັນສໍາລັບອຸດສາຫະກໍາ, ບໍ່ມີຫຼັກຖານຂອງການຂຸດຄົ້ນໃນສະພາບແວດລ້ອມທີ່ແທ້ຈິງຈົນເຖິງປະຈຸບັນ. ຊ່ອງໂຫວ່ດັ່ງກ່າວໄດ້ຖືກລາຍງານເປັນສ່ວນຕົວຜ່ານໂຄງການ 0Din ຂອງ Mozilla.
ວິທີການໂຈມຕີຂະຫນາດຮູບພາບເຮັດວຽກ

ສິ່ງສໍາຄັນແມ່ນຢູ່ໃນຂັ້ນຕອນການວິເຄາະກ່ອນ: ທໍ່ AI ຫຼາຍ ປັບຂະໜາດຮູບພາບເປັນຄວາມລະອຽດມາດຕະຖານ (224×224 ຫຼື 512×512) ໂດຍອັດຕະໂນມັດໃນທາງປະຕິບັດ, ຮູບແບບບໍ່ເຫັນໄຟລ໌ຕົ້ນສະບັບ, ແຕ່ແທນທີ່ຈະເປັນສະບັບທີ່ຫຼຸດລົງ, ແລະນັ້ນແມ່ນບ່ອນທີ່ເນື້ອຫາທີ່ເປັນອັນຕະລາຍຖືກເປີດເຜີຍ.
ຜູ້ໂຈມຕີໃສ່ Multimodal prompts camoufled ໂດຍ watermarks ເບິ່ງເຫັນ, ມັກຈະຢູ່ໃນພື້ນທີ່ມືດຂອງຮູບ. ເມື່ອຂັ້ນຕອນການຂະຫຍາຍອັນໃຫຍ່ຫຼວງແລ່ນ, ຮູບແບບເຫຼົ່ານີ້ຈະອອກມາແລະຕົວແບບແປວ່າມັນເປັນຄໍາແນະນໍາທີ່ຖືກຕ້ອງ, ເຊິ່ງສາມາດນໍາໄປສູ່ການກະທໍາທີ່ບໍ່ຕ້ອງການ.
ໃນການທົດສອບຄວບຄຸມ, ນັກຄົ້ນຄວ້າໄດ້ຈັດການ ສະກັດຂໍ້ມູນຈາກປະຕິທິນ Google ແລະສົ່ງໄປທີ່ອີເມວພາຍນອກ ໂດຍບໍ່ມີການຢືນຢັນຜູ້ໃຊ້. ນອກຈາກນັ້ນ, ເຕັກນິກເຫຼົ່ານີ້ເຊື່ອມຕໍ່ກັບຄອບຄົວຂອງ ການໂຈມຕີດ້ວຍການສັກຢາຢ່າງໄວວາ ສະແດງໃຫ້ເຫັນແລ້ວໃນເຄື່ອງມືຕົວແທນ (ເຊັ່ນ: Claude Code ຫຼື OpenAI Codex), ມີຄວາມສາມາດ exfiltrate ຂໍ້ມູນຫຼືກະຕຸ້ນການປະຕິບັດອັດຕະໂນມັດ ການຂຸດຄົ້ນກະແສທີ່ບໍ່ປອດໄພ.
vector ການແຜ່ກະຈາຍແມ່ນກວ້າງ: ຮູບພາບຢູ່ໃນເວັບໄຊທ໌, meme ແບ່ງປັນໃນ WhatsApp ຫຼື a ແຄມເປນ phishing ສາມາດເຮັດໄດ້ ເປີດໃຊ້ການເຕືອນເມື່ອຂໍໃຫ້ AI ປະມວນຜົນເນື້ອຫາມັນເປັນສິ່ງສໍາຄັນທີ່ຈະເນັ້ນຫນັກວ່າການໂຈມຕີ materializes ເມື່ອທໍ່ AI ປະຕິບັດການປັບຂະຫນາດກ່ອນການວິເຄາະ; ການເບິ່ງຮູບພາບໂດຍບໍ່ຜ່ານຂັ້ນຕອນນັ້ນບໍ່ໄດ້ກະຕຸ້ນມັນ.
ດັ່ງນັ້ນ, ຄວາມສ່ຽງແມ່ນສຸມໃສ່ການໄຫຼເຂົ້າທີ່ AI ມີການເຂົ້າເຖິງເຄື່ອງມືທີ່ເຊື່ອມຕໍ່ (ເຊັ່ນ:. ສົ່ງອີເມວ, ກວດເບິ່ງປະຕິທິນ ຫຼືໃຊ້ APIs): ຖ້າບໍ່ມີການປ້ອງກັນ, ມັນຈະປະຕິບັດພວກມັນໂດຍບໍ່ມີການແຊກແຊງຂອງຜູ້ໃຊ້.
ສູດການຄິດໄລ່ທີ່ມີຄວາມສ່ຽງ ແລະເຄື່ອງມືທີ່ກ່ຽວຂ້ອງ

ການໂຈມຕີຂຸດຄົ້ນວິທີການວິທີການທີ່ແນ່ນອນ ບີບອັດຂໍ້ມູນຄວາມລະອຽດສູງເປັນ pixels ໜ້ອຍລົງ ເມື່ອຫຼຸດຂະໜາດ: ການສົມທົບລະຫວ່າງປະເທດເພື່ອນບ້ານທີ່ໃກ້ທີ່ສຸດ, ການແຊກແຊງ bilinear, ແລະ bicubic interpolation. ແຕ່ລະຄົນຕ້ອງການເຕັກນິກການຝັງທີ່ແຕກຕ່າງກັນສໍາລັບຂໍ້ຄວາມເພື່ອຢູ່ລອດການປັບຂະຫນາດ.
ເພື່ອຝັງຄໍາແນະນໍາເຫຼົ່ານີ້, ເຄື່ອງມືແຫຼ່ງເປີດໄດ້ຖືກນໍາໃຊ້ ອະນາໂມເຟີ, ອອກແບບມາເພື່ອສີດການເຕືອນເຂົ້າໄປໃນຮູບພາບໂດຍອີງໃສ່ຂັ້ນຕອນການປັບຂະຫນາດເປົ້າຫມາຍແລະເຊື່ອງພວກມັນໃນຮູບແບບທີ່ລະອຽດອ່ອນ. ການປະມວນຜົນຮູບພາບຂອງ AI ໃນທີ່ສຸດກໍເປີດເຜີຍພວກມັນ.
ເມື່ອການກະຕຸ້ນເຕືອນໄດ້ຖືກເປີດເຜີຍ, ຮູບແບບສາມາດ ກະຕຸ້ນການເຊື່ອມໂຍງເຊັ່ນ Zapier (ຫຼືການບໍລິການທີ່ຄ້າຍຄືກັນກັບ IFTTT) ແລະການປະຕິບັດລະບົບຕ່ອງໂສ້: ການເກັບກໍາຂໍ້ມູນ, ການສົ່ງອີເມວຫຼືການເຊື່ອມຕໍ່ກັບການບໍລິການພາກສ່ວນທີສາມ, ທັງໝົດຢູ່ໃນກະແສປົກກະຕິ.
ໃນສັ້ນ, ນີ້ບໍ່ແມ່ນຄວາມລົ້ມເຫຼວທີ່ໂດດດ່ຽວຂອງຜູ້ສະຫນອງ, ແຕ່ແທນທີ່ຈະເປັນ ຄວາມອ່ອນແອຂອງໂຄງສ້າງໃນການຈັດການຮູບພາບທີ່ມີຂະຫນາດ ພາຍໃນທໍ່ multimodal ທີ່ປະສົມປະສານຂໍ້ຄວາມ, ວິໄສທັດ, ແລະເຄື່ອງມື.
ມາດຕະການຫຼຸດຜ່ອນ ແລະການປະຕິບັດທີ່ດີ

ນັກຄົ້ນຄວ້າແນະນໍາ ຫຼີກເວັ້ນການຫຼຸດລົງທຸກຄັ້ງທີ່ເປັນໄປໄດ້ ແລະແທນທີ່ຈະ, ຈຳກັດຂະໜາດການໂຫຼດ. ໃນເວລາທີ່ການຂະຫຍາຍແມ່ນມີຄວາມຈໍາເປັນ, ມັນແມ່ນແນະນໍາໃຫ້ການປະກອບເປັນ ເບິ່ງຕົວຢ່າງຂອງສິ່ງທີ່ຕົວແບບຕົວຈິງຈະເຫັນ, ຍັງຢູ່ໃນເຄື່ອງມື CLI ແລະໃນ API, ແລະນໍາໃຊ້ເຄື່ອງມືການຊອກຄົ້ນຫາເຊັ່ນ: Google SynthID.
ໃນລະດັບການອອກແບບ, ການປ້ອງກັນແຂງທີ່ສຸດແມ່ນຜ່ານ ຮູບແບບຄວາມປອດໄພ ແລະການຄວບຄຸມລະບົບ ຕໍ່ກັບການສີດຂໍ້ຄວາມ: ບໍ່ມີເນື້ອໃນທີ່ຝັງຢູ່ໃນຮູບພາບຄວນຈະສາມາດລິເລີ່ມໄດ້ ໂທຫາເຄື່ອງມືທີ່ລະອຽດອ່ອນໂດຍບໍ່ມີການຢືນຢັນຢ່າງຊັດເຈນ ຂອງຜູ້ໃຊ້.
ໃນລະດັບປະຕິບັດງານ, ມັນເປັນຄວາມລະມັດລະວັງ ຫຼີກເວັ້ນການອັບໂຫລດຮູບພາບຂອງຕົ້ນກໍາເນີດທີ່ບໍ່ຮູ້ຈັກກັບ Gemini ແລະທົບທວນຄືນການອະນຸຍາດທີ່ໃຫ້ຜູ້ຊ່ວຍຫຼືແອັບຯ (ການເຂົ້າເຖິງອີເມວ, ປະຕິທິນ, ອັດຕະໂນມັດ, ແລະອື່ນໆ). ສິ່ງກີດຂວາງເຫຼົ່ານີ້ຫຼຸດຜ່ອນຜົນກະທົບທີ່ອາດເກີດຂື້ນຢ່າງຫຼວງຫຼາຍ.
ສໍາລັບທີມງານດ້ານວິຊາການ, ມັນເປັນມູນຄ່າການກວດສອບ preprocessing multimodal, hardening the action sandbox, ແລະ ບັນທຶກ / ເຕືອນກ່ຽວກັບຮູບແບບຜິດປົກກະຕິ ການເປີດໃຊ້ເຄື່ອງມືຫຼັງຈາກການວິເຄາະຮູບພາບ. ນີ້ເສີມສ້າງການປ້ອງກັນລະດັບຜະລິດຕະພັນ.
ທຸກສິ່ງທຸກຢ່າງຊີ້ໃຫ້ເຫັນຄວາມຈິງທີ່ວ່າພວກເຮົາກໍາລັງປະເຊີນ ຕົວແປອື່ນຂອງການສັກຢາຢ່າງໄວວາ ນຳໃຊ້ກັບຊ່ອງພາບ. ດ້ວຍມາດຕະການປ້ອງກັນ, ການກວດສອບການປ້ອນຂໍ້ມູນ, ແລະການຢືນຢັນທີ່ບັງຄັບ, ຂອບການຂຸດຄົ້ນແມ່ນແຄບລົງ ແລະຄວາມສ່ຽງຖືກຈຳກັດສຳລັບຜູ້ໃຊ້ ແລະທຸລະກິດ.
ການຄົ້ນຄວ້າໄດ້ສຸມໃສ່ຈຸດຕາບອດໃນຮູບແບບ multimodal: ການຂະຫຍາຍຮູບພາບສາມາດກາຍເປັນ vector ການໂຈມຕີ ຖ້າປະໄວ້ໂດຍບໍ່ໄດ້ເລືອກ, ເຂົ້າໃຈວ່າການປ້ອນຂໍ້ມູນຖືກປະມວນຜົນລ່ວງໜ້າແນວໃດ, ການຈຳກັດສິດອະນຸຍາດ, ແລະຕ້ອງການການຢືນຢັນກ່ອນການກະທຳທີ່ສຳຄັນສາມາດເຮັດໃຫ້ຄວາມແຕກຕ່າງລະຫວ່າງພາບຖ່າຍພາບ ແລະ ປະຕູສູ່ຂໍ້ມູນຂອງທ່ານ.
ຂ້ອຍເປັນນັກເທັກໂນໂລຍີທີ່ກະຕືລືລົ້ນທີ່ໄດ້ຫັນຄວາມສົນໃຈ "geek" ຂອງລາວໄປສູ່ອາຊີບ. ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາຫຼາຍກ່ວາ 10 ປີຂອງຊີວິດຂອງຂ້າພະເຈົ້າໂດຍການນໍາໃຊ້ເຕັກໂນໂລຊີທີ່ທັນສະໄຫມແລະ tinkering ກັບທຸກປະເພດຂອງໂຄງການອອກຈາກ curiosity ອັນບໍລິສຸດ. ຕອນນີ້ຂ້ອຍມີຄວາມຊ່ຽວຊານດ້ານເທັກໂນໂລຍີຄອມພິວເຕີ ແລະເກມວີດີໂອ. ນີ້ແມ່ນຍ້ອນວ່າຫຼາຍກວ່າ 5 ປີທີ່ຂ້ອຍໄດ້ຂຽນສໍາລັບເວັບໄຊທ໌ຕ່າງໆກ່ຽວກັບເຕັກໂນໂລຢີແລະວິດີໂອເກມ, ການສ້າງບົດຄວາມທີ່ຊອກຫາເພື່ອໃຫ້ທ່ານມີຂໍ້ມູນທີ່ທ່ານຕ້ອງການໃນພາສາທີ່ທຸກຄົນເຂົ້າໃຈໄດ້.
ຖ້າທ່ານມີຄໍາຖາມໃດໆ, ຄວາມຮູ້ຂອງຂ້ອຍແມ່ນມາຈາກທຸກສິ່ງທຸກຢ່າງທີ່ກ່ຽວຂ້ອງກັບລະບົບປະຕິບັດການ Windows ເຊັ່ນດຽວກັນກັບ Android ສໍາລັບໂທລະສັບມືຖື. ແລະຄໍາຫມັ້ນສັນຍາຂອງຂ້າພະເຈົ້າແມ່ນກັບທ່ານ, ຂ້າພະເຈົ້າສະເຫມີເຕັມໃຈທີ່ຈະໃຊ້ເວລາສອງສາມນາທີແລະຊ່ວຍທ່ານແກ້ໄຂຄໍາຖາມໃດໆທີ່ທ່ານອາດຈະມີຢູ່ໃນໂລກອິນເຕີເນັດນີ້.