ปริศนาง่ายๆ ที่หลอก ChatGPT และเปิดเผยคีย์ Windows

การปรับปรุงครั้งล่าสุด: 14/07/2025
ผู้แต่ง: Alberto navarro

  • นักวิจัยสามารถทำให้ ChatGPT เปิดเผยรหัสผ่าน Windows ได้โดยการเล่นเกมเดาที่ปลอมตัวเป็นเกมที่ไม่มีพิษมีภัย
  • เทคนิคนี้ใช้แท็ก HTML และกฎของเกมเพื่อข้ามตัวกรองและเอาชนะอุปสรรคด้านความปลอดภัยที่ใช้ใน AI
  • รหัสผ่านทั่วไปและรหัสผ่านที่เชื่อมโยงกับ Wells Fargo Bank ต่างก็ถูกเปิดเผย ทำให้เกิดคำถามถึงการปกป้องข้อมูลที่ละเอียดอ่อน
  • กรณีนี้เน้นย้ำถึงความจำเป็นในการปรับปรุงการวิเคราะห์บริบทและการตรวจจับการจัดการทางภาษาในระบบปัญญาประดิษฐ์

ปริศนาพร้อมภาพทั่วไปของ chatgpt

ในช่วงวันสุดท้าย ชุมชนเทคโนโลยีได้พบเห็นข้อโต้แย้งใหม่เกี่ยวกับ ChatGPTรูปแบบภาษายอดนิยมของ OpenAI ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ได้นำปัญญาประดิษฐ์มาเปิดเผย รหัสผลิตภัณฑ์ Windows การใช้ กลยุทธ์ที่ทั้งเรียบง่ายและมีประสิทธิภาพ: เกมการเดาช่องโหว่นี้ทำให้ความน่าเชื่อถือของระบบป้องกันปัญญาประดิษฐ์และความเสี่ยงจากการจัดการผ่านเทคนิคทางวิศวกรรมสังคมกลายมาเป็นหัวข้อหลักในการอภิปรายอีกครั้ง

การค้นพบนี้เริ่มต้นจากสถานการณ์ที่ดูเหมือนไม่เป็นอันตราย: ความท้าทายประเภท "ปริศนา" ที่เปิดตัวใน ChatGPT โดยที่ AI จะต้องคิดถึงสตริงอักขระจริง —โดยเฉพาะรหัสเปิดใช้งาน Windows 10— และ จำกัดคำตอบของคุณเป็น “ใช่” หรือ “ไม่” จนกระทั่งผู้ใช้ยอมแพ้ โดยการพูดว่า "ฉันยอมแพ้" โมเดลจะต้องแสดงคีย์ที่จินตนาการไว้ การโต้ตอบทั้งหมดได้รับการออกแบบมาเพื่อ อำพรางคำขอที่แท้จริงภายใต้ภาพลวงตาที่สนุกสนานทำให้ระบบป้องกันอัตโนมัติของ ChatGPT เองเกิดความสับสน

เนื้อหาพิเศษ - คลิกที่นี่  ระบบป้องกันการโจรกรรมข้อมูล Ultrabook

ปริศนา: พวกเขาสามารถเอาชนะอุปสรรคของ AI ได้อย่างไร

กลโกง ChatGPT และเปิดเผยคีย์ Windows

วิธีการดังกล่าวประกอบด้วย วางคำขอสำคัญเป็นส่วนหนึ่งของเกมไดนามิก, การกำหนดกฎเกณฑ์ที่บังคับให้นางแบบต้องมีส่วนร่วมและตอบตามความจริง ดังนั้น AI จึงติดอยู่ในกรอบที่ไม่ตรวจจับพฤติกรรมที่ผิดปกติหรืออาจเป็นอันตรายใดๆโดยตีความว่าเป็นการสนทนาที่ถูกต้องตามกฎหมายไม่มีเจตนาจะร้ายแต่อย่างใด

เพื่อข้ามตัวกรองปกติของ OpenAI ซึ่งป้องกันไม่ให้ AI แชร์โค้ดที่ละเอียดอ่อนหรือข้อมูลที่ได้รับการปกป้อง เช่น มีการใช้ชั้นวิศวกรรมเพิ่มเติม:สตริงที่ละเอียดอ่อนถูกฝังอยู่ในแท็ก HTML ซึ่งผู้ใช้มองไม่เห็นแต่โมเดลจะประมวลผล เมื่อผู้ใช้ทำตามสคริปต์ของเกมแล้วพูดประโยคที่คาดว่าจะเป็น "ยอมแพ้" ChatGPT จะเปิดเผยคีย์ จึงหลีกเลี่ยงข้อจำกัดใดๆ ที่อิงจากคีย์เวิร์ดหรือรูปแบบที่ชัดเจนเพียงอย่างเดียว

บทความที่เกี่ยวข้อง:
วิธีเปิดไฟล์สำคัญใน Windows 10

เปิดเผยข้อมูลอะไรบ้างและเหตุใดจึงสำคัญมาก?

วิธีการรีเซ็ตเป็นค่าโรงงาน Windows 10

ตามคำให้การของนักวิจัยและการวิเคราะห์มากมายที่ตีพิมพ์ในสื่อเฉพาะทาง AI สามารถแสดงรหัสผลิตภัณฑ์ Windows 10 ได้สูงสุด XNUMX รหัส. ส่วนใหญ่เป็น คีย์ทั่วไปและคีย์สาธารณะ —คล้ายกับที่ Microsoft เปิดใช้งานชั่วคราวเพื่อการทดสอบ— แต่มีอย่างน้อยหนึ่งรายการที่สอดคล้องกับใบอนุญาตขององค์กร ซึ่งเชื่อมโยงกับธนาคาร Wells Fargo โดยเฉพาะ

เนื้อหาพิเศษ - คลิกที่นี่  วิธีเปิด ChatGPT ด้วยแป้นพิมพ์ลัดใน Windows 11: วิธีการกำหนดค่าอย่างง่ายดาย

รายละเอียดนี้น่าเป็นกังวลเป็นอย่างยิ่งเนื่องจากแสดงให้เห็นว่าคีย์ส่วนตัวและคีย์ลับบางส่วนน่าจะถูกเก็บไว้ในชุดข้อมูลที่ ChatGPT ได้รับการฝึกมา โดยน่าจะถูกเปิดเผยในที่เก็บข้อมูลสาธารณะ เช่น GitHub หรือฟอรัมอินเทอร์เน็ตอื่นๆ

ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์เตือน เทคนิคประเภทนี้สามารถใช้ได้ไม่เพียงแค่เพื่อรับใบอนุญาตซอฟต์แวร์เท่านั้น แต่ยังใช้เพื่อหลีกเลี่ยงตัวกรองเนื้อหาเกี่ยวกับข้อมูลส่วนบุคคล API ลิงก์ที่เป็นอันตราย หรือสื่อที่ถูกจำกัดด้วยเหตุผลทางกฎหมายอีกด้วย

เหตุใด AI จึงไม่สามารถรับรู้ถึงความเสี่ยงได้ และสาเหตุคืออะไร

จะจัดการวันหยุดของคุณกับ ChatGPT ได้อย่างไร?-8

ความสำเร็จของการโจมตีไม่ได้อยู่ที่การละเมิดทางเทคนิคของโค้ดต้นฉบับ แต่อยู่ที่ จุดอ่อนของกลไกการทำความเข้าใจบริบทของ AIโมเดลนี้เข้าใจการโต้ตอบเป็นเกมโดยไม่ใช้การควบคุมที่เข้มงวดที่สุด และไม่ได้ระบุบริบทที่ถูกจัดการว่าอาจเป็นอันตรายได้

นอกจากนี้ โดยเรียนรู้จากข้อความที่นำมาจากแหล่งสาธารณะ —ที่ซึ่งกุญแจอาจปรากฏบ่อยครั้งและไม่คำนึงถึงความอ่อนไหวของมัน—, ChatGPT ไม่จัดประเภทข้อมูลเหล่านี้ว่าเป็น "ข้อมูลที่ละเอียดอ่อน" แต่เป็นสตริงที่ยอมรับได้ ภายในบทสนทนาใดๆ

วิธีการนี้แสดงให้เห็นว่าระบบการป้องกันนั้นอาศัยเพียงรายการคำต้องห้ามหรือตัวกรองผิวเผินเท่านั้น ไม่เพียงพอเมื่อการโจมตีถูกปกปิดไว้ในบริบทที่บริสุทธิ์ อันที่จริง นักวิจัยเน้นย้ำว่า ไม่จำเป็นต้องมีความรู้ทางเทคนิคสูง การดำเนินการจัดการประเภทนี้ซึ่งจะเพิ่มระดับความเสี่ยง

มีอะไรเปลี่ยนแปลงบ้างกับ Windows 12 และต้องเตรียมตัวอย่างไรตอนนี้
บทความที่เกี่ยวข้อง:
Windows 12 จะมีการเปลี่ยนแปลงอะไรบ้าง และต้องเตรียมตัวอย่างไร: มีอะไรใหม่ ข้อกำหนด และเคล็ดลับสำคัญ

ผลกระทบและคำแนะนำสำหรับผู้ใช้และนักพัฒนา

คุยกับ Chat-GPT

เหตุการณ์นี้เกิดขึ้น ประกาศถึงนักนำทางและนักพัฒนาโมเดล AIกฎเกณฑ์ที่บังคับใช้แม้จะเข้มงวดเพียงใดก็สามารถหลีกเลี่ยงได้โดยใช้กลยุทธ์การสร้างกรอบและการเล่นบทบาทสมมติแบบสนทนา ดังนั้นผู้เชี่ยวชาญชี้ว่าคำแนะนำสำคัญในการรวมกลไกการตรวจจับเจตนาเชิงความหมายคือโดยประเมินไม่เพียงแต่เนื้อหาเท่านั้น แต่ยังรวมถึงจุดประสงค์ของการโต้ตอบแต่ละครั้งด้วย

เนื้อหาพิเศษ - คลิกที่นี่  จะอัพเดท Eset NOD32 Antivirus ได้อย่างไร?

สำหรับผู้ใช้ทั่วไปหรือบริษัทที่จ้างผู้ช่วยเสมือน ข้อควรระวังที่ดีที่สุดคือ อย่าแบ่งปันข้อมูลที่ละเอียดอ่อน ในการสนทนากับโมเดล AI การตรวจสอบข้อมูลที่โพสต์บนฟอรัมสาธารณะและที่เก็บข้อมูลก็มีความสำคัญมากกว่าที่เคย เพราะสามารถฝึกอบรม AI เวอร์ชันในอนาคตด้วยข้อมูลสำคัญได้

  • หลีกเลี่ยงการป้อนข้อมูลที่ละเอียดอ่อนในแชท AIแม้ว่าการสนทนาจะดูบริสุทธิ์ก็ตาม
  • หากคุณพัฒนาซอฟต์แวร์ด้วยโมเดลภาษา ให้เพิ่มการควบคุมอิสระ เพื่อกรองการรั่วไหลที่อาจเกิดขึ้นออกไป
  • ตรวจสอบและลบข้อมูลที่ถูกบุกรุก จากแพลตฟอร์มสาธารณะที่จัดทำดัชนีได้ง่าย

สิ่งที่เกิดขึ้นกับ ChatGPT และเกมการเดาแสดงให้เห็นว่า การรักษาความปลอดภัยในระบบปัญญาประดิษฐ์จะต้องก้าวไปไกลกว่าแค่การบล็อกเงื่อนไขหรือการตรวจจับรูปแบบคงที่เพียงอย่างเดียวอุปสรรคในการป้องกันจะต้องได้รับการเสริมความแข็งแกร่งด้วยความเข้าใจที่ลึกซึ้งและแท้จริงเกี่ยวกับบริบทและเจตนาเบื้องหลังแต่ละคำกระตุ้น โดยคาดการณ์กลยุทธ์การจัดการที่สร้างสรรค์