ພວກເຂົາເຈົ້າໄດ້ຊອກຫາວິທີທີ່ຈະ sneak ຄໍາສັ່ງເຂົ້າໄປໃນຮູບໃນ Gemini: ຂະຫນາດງ່າຍດາຍເຮັດໃຫ້ AI ປະຕິບັດໃຫ້ເຂົາເຈົ້າ.

ອັບເດດຫຼ້າສຸດ: 03/09/2025

  • ການ​ໂຈມ​ຕີ​ເຊື່ອງ​ການ​ເຕືອນ multimodal ທີ່​ເບິ່ງ​ບໍ່​ເຫັນ​ຢູ່​ໃນ​ຮູບ​ພາບ​ທີ່​, ໃນ​ເວ​ລາ​ທີ່​ຂະ​ຫນາດ Gemini​, ປະ​ຕິ​ບັດ​ໂດຍ​ບໍ່​ມີ​ການ​ເຕືອນ​.
  • vector leverages preprocessing ຮູບພາບ (224x224/512x512) ແລະ triggers ເຄື່ອງມືເຊັ່ນ Zapier exfiltrate ຂໍ້ມູນ.
  • ປະເທດເພື່ອນບ້ານທີ່ໃກ້ທີ່ສຸດ, bilinear, ແລະ bicubic algorithms ແມ່ນມີຄວາມສ່ຽງ; ເຄື່ອງມື Anamorpher ອະນຸຍາດໃຫ້ພວກເຂົາຖືກສີດ.
  • ຜູ້ຊ່ຽວຊານແນະນຳໃຫ້ຫຼີກລ່ຽງການຫຼຸດຂະໜາດລົງ, ເບິ່ງຕົວຢ່າງການປ້ອນຂໍ້ມູນ, ແລະຮຽກຮ້ອງໃຫ້ມີການຢືນຢັນກ່ອນທີ່ຈະດໍາເນີນການທີ່ລະອຽດອ່ອນ.

ການໂຈມຕີຮູບພາບກ່ຽວກັບລະບົບ AI

ກຸ່ມນັກຄົ້ນຄວ້າໄດ້ບັນທຶກວິທີການບຸກລຸກທີ່ມີຄວາມສາມາດ ການລັກຂໍ້ມູນສ່ວນຕົວໂດຍການໃສ່ຄໍາແນະນໍາທີ່ເຊື່ອງໄວ້ເຂົ້າໄປໃນຮູບພາບເມື່ອໄຟລ໌ເຫຼົ່ານັ້ນຖືກອັບໂຫລດໃສ່ລະບົບ multimodal ເຊັ່ນ Gemini, ການປະມວນຜົນອັດຕະໂນມັດຈະເປີດໃຊ້ຄໍາສັ່ງ, ແລະ AI ປະຕິບັດຕາມພວກມັນຄືກັບວ່າພວກມັນຖືກຕ້ອງ.

ການຄົ້ນພົບ, ລາຍງານໂດຍ The Trail of Bits, ມີຜົນກະທົບຕໍ່ສະພາບແວດລ້ອມການຜະລິດ. ເຊັ່ນ Gemini CLI, Vertex AI Studio, Gemini API, Google Assistant ຫຼື GensparkGoogle ໄດ້ຮັບຮູ້ວ່ານີ້ແມ່ນສິ່ງທ້າທາຍທີ່ສໍາຄັນສໍາລັບອຸດສາຫະກໍາ, ບໍ່ມີຫຼັກຖານຂອງການຂຸດຄົ້ນໃນສະພາບແວດລ້ອມທີ່ແທ້ຈິງຈົນເຖິງປະຈຸບັນ. ຊ່ອງໂຫວ່ດັ່ງກ່າວໄດ້ຖືກລາຍງານເປັນສ່ວນຕົວຜ່ານໂຄງການ 0Din ຂອງ Mozilla.

ວິທີການໂຈມຕີຂະຫນາດຮູບພາບເຮັດວຽກ

ວິທີການການໂຈມຕີ Gemini Image Scaling ເຮັດວຽກ

ສິ່ງສໍາຄັນແມ່ນຢູ່ໃນຂັ້ນຕອນການວິເຄາະກ່ອນ: ທໍ່ AI ຫຼາຍ ປັບຂະໜາດຮູບພາບເປັນຄວາມລະອຽດມາດຕະຖານ (224×224 ຫຼື 512×512) ໂດຍອັດຕະໂນມັດໃນທາງປະຕິບັດ, ຮູບແບບບໍ່ເຫັນໄຟລ໌ຕົ້ນສະບັບ, ແຕ່ແທນທີ່ຈະເປັນສະບັບທີ່ຫຼຸດລົງ, ແລະນັ້ນແມ່ນບ່ອນທີ່ເນື້ອຫາທີ່ເປັນອັນຕະລາຍຖືກເປີດເຜີຍ.

ເນື້ອຫາສະເພາະ - ຄລິກທີ່ນີ້  ວິທີການປ່ຽນ Samsung Wallet ເປັນ Google Pay

ຜູ້ໂຈມຕີໃສ່ Multimodal prompts camoufled ໂດຍ watermarks ເບິ່ງເຫັນ, ມັກຈະຢູ່ໃນພື້ນທີ່ມືດຂອງຮູບ. ເມື່ອຂັ້ນຕອນການຂະຫຍາຍອັນໃຫຍ່ຫຼວງແລ່ນ, ຮູບແບບເຫຼົ່ານີ້ຈະອອກມາແລະຕົວແບບແປວ່າມັນເປັນຄໍາແນະນໍາທີ່ຖືກຕ້ອງ, ເຊິ່ງສາມາດນໍາໄປສູ່ການກະທໍາທີ່ບໍ່ຕ້ອງການ.

ໃນການທົດສອບຄວບຄຸມ, ນັກຄົ້ນຄວ້າໄດ້ຈັດການ ສະກັດຂໍ້ມູນຈາກປະຕິທິນ Google ແລະສົ່ງໄປທີ່ອີເມວພາຍນອກ ໂດຍບໍ່ມີການຢືນຢັນຜູ້ໃຊ້. ນອກຈາກນັ້ນ, ເຕັກນິກເຫຼົ່ານີ້ເຊື່ອມຕໍ່ກັບຄອບຄົວຂອງ ການໂຈມຕີດ້ວຍການສັກຢາຢ່າງໄວວາ ສະແດງໃຫ້ເຫັນແລ້ວໃນເຄື່ອງມືຕົວແທນ (ເຊັ່ນ: Claude Code ຫຼື OpenAI Codex), ມີຄວາມສາມາດ exfiltrate ຂໍ້​ມູນ​ຫຼື​ກະ​ຕຸ້ນ​ການ​ປະ​ຕິ​ບັດ​ອັດ​ຕະ​ໂນ​ມັດ​ ການຂຸດຄົ້ນກະແສທີ່ບໍ່ປອດໄພ.

vector ການແຜ່ກະຈາຍແມ່ນກວ້າງ: ຮູບພາບຢູ່ໃນເວັບໄຊທ໌, meme ແບ່ງປັນໃນ WhatsApp ຫຼື a ແຄມເປນ phishing ສາມາດເຮັດໄດ້ ເປີດໃຊ້ການເຕືອນເມື່ອຂໍໃຫ້ AI ປະມວນຜົນເນື້ອຫາມັນເປັນສິ່ງສໍາຄັນທີ່ຈະເນັ້ນຫນັກວ່າການໂຈມຕີ materializes ເມື່ອທໍ່ AI ປະຕິບັດການປັບຂະຫນາດກ່ອນການວິເຄາະ; ການເບິ່ງຮູບພາບໂດຍບໍ່ຜ່ານຂັ້ນຕອນນັ້ນບໍ່ໄດ້ກະຕຸ້ນມັນ.

ດັ່ງນັ້ນ, ຄວາມສ່ຽງແມ່ນສຸມໃສ່ການໄຫຼເຂົ້າທີ່ AI ມີການເຂົ້າເຖິງເຄື່ອງມືທີ່ເຊື່ອມຕໍ່ (ເຊັ່ນ:. ສົ່ງອີເມວ, ກວດເບິ່ງປະຕິທິນ ຫຼືໃຊ້ APIs): ຖ້າບໍ່ມີການປ້ອງກັນ, ມັນຈະປະຕິບັດພວກມັນໂດຍບໍ່ມີການແຊກແຊງຂອງຜູ້ໃຊ້.

ສູດການຄິດໄລ່ທີ່ມີຄວາມສ່ຽງ ແລະເຄື່ອງມືທີ່ກ່ຽວຂ້ອງ

ຊ່ອງໂຫວ່ການປັບຂະໜາດຮູບພາບໃນ AI

ການ​ໂຈມ​ຕີ​ຂຸດ​ຄົ້ນ​ວິ​ທີ​ການ​ວິ​ທີ​ການ​ທີ່​ແນ່​ນອນ ບີບອັດຂໍ້ມູນຄວາມລະອຽດສູງເປັນ pixels ໜ້ອຍລົງ ເມື່ອຫຼຸດຂະໜາດ: ການສົມທົບລະຫວ່າງປະເທດເພື່ອນບ້ານທີ່ໃກ້ທີ່ສຸດ, ການແຊກແຊງ bilinear, ແລະ bicubic interpolation. ແຕ່ລະຄົນຕ້ອງການເຕັກນິກການຝັງທີ່ແຕກຕ່າງກັນສໍາລັບຂໍ້ຄວາມເພື່ອຢູ່ລອດການປັບຂະຫນາດ.

ເນື້ອຫາສະເພາະ - ຄລິກທີ່ນີ້  Android System SafetyCore: ມັນແມ່ນຫຍັງ ແລະເປັນຫຍັງມັນຢູ່ໃນໂທລະສັບຂອງທ່ານ?

ເພື່ອຝັງຄໍາແນະນໍາເຫຼົ່ານີ້, ເຄື່ອງມືແຫຼ່ງເປີດໄດ້ຖືກນໍາໃຊ້ ອະນາໂມເຟີ, ອອກແບບມາເພື່ອສີດການເຕືອນເຂົ້າໄປໃນຮູບພາບໂດຍອີງໃສ່ຂັ້ນຕອນການປັບຂະຫນາດເປົ້າຫມາຍແລະເຊື່ອງພວກມັນໃນຮູບແບບທີ່ລະອຽດອ່ອນ. ການປະມວນຜົນຮູບພາບຂອງ AI ໃນທີ່ສຸດກໍເປີດເຜີຍພວກມັນ.

ເມື່ອການກະຕຸ້ນເຕືອນໄດ້ຖືກເປີດເຜີຍ, ຮູບແບບສາມາດ ກະຕຸ້ນການເຊື່ອມໂຍງເຊັ່ນ Zapier (ຫຼືການບໍລິການທີ່ຄ້າຍຄືກັນກັບ IFTTT) ແລະການປະຕິບັດລະບົບຕ່ອງໂສ້: ການ​ເກັບ​ກໍາ​ຂໍ້​ມູນ​, ການ​ສົ່ງ​ອີ​ເມວ​ຫຼື​ການ​ເຊື່ອມ​ຕໍ່​ກັບ​ການ​ບໍ​ລິ​ການ​ພາກ​ສ່ວນ​ທີ​ສາມ​, ທັງໝົດຢູ່ໃນກະແສປົກກະຕິ.

ໃນສັ້ນ, ນີ້ບໍ່ແມ່ນຄວາມລົ້ມເຫຼວທີ່ໂດດດ່ຽວຂອງຜູ້ສະຫນອງ, ແຕ່ແທນທີ່ຈະເປັນ ຄວາມອ່ອນແອຂອງໂຄງສ້າງໃນການຈັດການຮູບພາບທີ່ມີຂະຫນາດ ພາຍໃນທໍ່ multimodal ທີ່ປະສົມປະສານຂໍ້ຄວາມ, ວິໄສທັດ, ແລະເຄື່ອງມື.

ມາດຕະການຫຼຸດຜ່ອນ ແລະການປະຕິບັດທີ່ດີ

synthID

ນັກຄົ້ນຄວ້າແນະນໍາ ຫຼີກເວັ້ນການຫຼຸດລົງທຸກຄັ້ງທີ່ເປັນໄປໄດ້ ແລະແທນທີ່ຈະ, ຈຳກັດຂະໜາດການໂຫຼດ. ໃນ​ເວ​ລາ​ທີ່​ການ​ຂະ​ຫຍາຍ​ແມ່ນ​ມີ​ຄວາມ​ຈໍາ​ເປັນ​, ມັນ​ແມ່ນ​ແນະ​ນໍາ​ໃຫ້​ການ​ປະ​ກອບ​ເປັນ​ ເບິ່ງຕົວຢ່າງຂອງສິ່ງທີ່ຕົວແບບຕົວຈິງຈະເຫັນ, ຍັງຢູ່ໃນເຄື່ອງມື CLI ແລະໃນ API, ແລະນໍາໃຊ້ເຄື່ອງມືການຊອກຄົ້ນຫາເຊັ່ນ: Google SynthID.

ໃນລະດັບການອອກແບບ, ການປ້ອງກັນແຂງທີ່ສຸດແມ່ນຜ່ານ ຮູບແບບຄວາມປອດໄພ ແລະການຄວບຄຸມລະບົບ ຕໍ່ກັບການສີດຂໍ້ຄວາມ: ບໍ່ມີເນື້ອໃນທີ່ຝັງຢູ່ໃນຮູບພາບຄວນຈະສາມາດລິເລີ່ມໄດ້ ໂທຫາເຄື່ອງມືທີ່ລະອຽດອ່ອນໂດຍບໍ່ມີການຢືນຢັນຢ່າງຊັດເຈນ ຂອງຜູ້ໃຊ້.

ເນື້ອຫາສະເພາະ - ຄລິກທີ່ນີ້  ວິທີການຫລີກລ້ຽງການຫລອກລວງການເຊົ່າ

ໃນລະດັບປະຕິບັດງານ, ມັນເປັນຄວາມລະມັດລະວັງ ຫຼີກເວັ້ນການອັບໂຫລດຮູບພາບຂອງຕົ້ນກໍາເນີດທີ່ບໍ່ຮູ້ຈັກກັບ Gemini ແລະທົບທວນຄືນການອະນຸຍາດທີ່ໃຫ້ຜູ້ຊ່ວຍຫຼືແອັບຯ (ການເຂົ້າເຖິງອີເມວ, ປະຕິທິນ, ອັດຕະໂນມັດ, ແລະອື່ນໆ). ສິ່ງກີດຂວາງເຫຼົ່ານີ້ຫຼຸດຜ່ອນຜົນກະທົບທີ່ອາດເກີດຂື້ນຢ່າງຫຼວງຫຼາຍ.

ສໍາລັບທີມງານດ້ານວິຊາການ, ມັນເປັນມູນຄ່າການກວດສອບ preprocessing multimodal, hardening the action sandbox, ແລະ ບັນທຶກ / ເຕືອນກ່ຽວກັບຮູບແບບຜິດປົກກະຕິ ການເປີດໃຊ້ເຄື່ອງມືຫຼັງຈາກການວິເຄາະຮູບພາບ. ນີ້ເສີມສ້າງການປ້ອງກັນລະດັບຜະລິດຕະພັນ.

ທຸກສິ່ງທຸກຢ່າງຊີ້ໃຫ້ເຫັນຄວາມຈິງທີ່ວ່າພວກເຮົາກໍາລັງປະເຊີນ ຕົວແປອື່ນຂອງການສັກຢາຢ່າງໄວວາ ນຳໃຊ້ກັບຊ່ອງພາບ. ດ້ວຍມາດຕະການປ້ອງກັນ, ການກວດສອບການປ້ອນຂໍ້ມູນ, ແລະການຢືນຢັນທີ່ບັງຄັບ, ຂອບການຂຸດຄົ້ນແມ່ນແຄບລົງ ແລະຄວາມສ່ຽງຖືກຈຳກັດສຳລັບຜູ້ໃຊ້ ແລະທຸລະກິດ.

ການຄົ້ນຄວ້າໄດ້ສຸມໃສ່ຈຸດຕາບອດໃນຮູບແບບ multimodal: ການຂະຫຍາຍຮູບພາບສາມາດກາຍເປັນ vector ການໂຈມຕີ ຖ້າປະໄວ້ໂດຍບໍ່ໄດ້ເລືອກ, ເຂົ້າໃຈວ່າການປ້ອນຂໍ້ມູນຖືກປະມວນຜົນລ່ວງໜ້າແນວໃດ, ການຈຳກັດສິດອະນຸຍາດ, ແລະຕ້ອງການການຢືນຢັນກ່ອນການກະທຳທີ່ສຳຄັນສາມາດເຮັດໃຫ້ຄວາມແຕກຕ່າງລະຫວ່າງພາບຖ່າຍພາບ ແລະ ປະຕູສູ່ຂໍ້ມູນຂອງທ່ານ.

ສ່ວນຂະຫຍາຍກວດພົບຮູບພາບທີ່ສ້າງຂຶ້ນໂດຍ AI-0
ບົດຂຽນທີ່ກ່ຽວຂ້ອງ:
ວິທີການກວດສອບວ່າຮູບພາບໄດ້ຖືກສ້າງຂື້ນໂດຍປັນຍາປະດິດ: ເຄື່ອງມື, ການຂະຫຍາຍ, ແລະ tricks ເພື່ອຫຼີກເວັ້ນການຕົກຢູ່ໃນຈັ່ນຈັບ