- นักวิจัยสามารถทำให้ ChatGPT เปิดเผยรหัสผ่าน Windows ได้โดยการเล่นเกมเดาที่ปลอมตัวเป็นเกมที่ไม่มีพิษมีภัย
- เทคนิคนี้ใช้แท็ก HTML และกฎของเกมเพื่อข้ามตัวกรองและเอาชนะอุปสรรคด้านความปลอดภัยที่ใช้ใน AI
- รหัสผ่านทั่วไปและรหัสผ่านที่เชื่อมโยงกับ Wells Fargo Bank ต่างก็ถูกเปิดเผย ทำให้เกิดคำถามถึงการปกป้องข้อมูลที่ละเอียดอ่อน
- กรณีนี้เน้นย้ำถึงความจำเป็นในการปรับปรุงการวิเคราะห์บริบทและการตรวจจับการจัดการทางภาษาในระบบปัญญาประดิษฐ์

ในช่วงวันสุดท้าย ชุมชนเทคโนโลยีได้พบเห็นข้อโต้แย้งใหม่เกี่ยวกับ ChatGPTรูปแบบภาษายอดนิยมของ OpenAI ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ได้นำปัญญาประดิษฐ์มาเปิดเผย รหัสผลิตภัณฑ์ Windows การใช้ กลยุทธ์ที่ทั้งเรียบง่ายและมีประสิทธิภาพ: เกมการเดาช่องโหว่นี้ทำให้ความน่าเชื่อถือของระบบป้องกันปัญญาประดิษฐ์และความเสี่ยงจากการจัดการผ่านเทคนิคทางวิศวกรรมสังคมกลายมาเป็นหัวข้อหลักในการอภิปรายอีกครั้ง
การค้นพบนี้เริ่มต้นจากสถานการณ์ที่ดูเหมือนไม่เป็นอันตราย: ความท้าทายประเภท "ปริศนา" ที่เปิดตัวใน ChatGPT โดยที่ AI จะต้องคิดถึงสตริงอักขระจริง —โดยเฉพาะรหัสเปิดใช้งาน Windows 10— และ จำกัดคำตอบของคุณเป็น “ใช่” หรือ “ไม่” จนกระทั่งผู้ใช้ยอมแพ้ โดยการพูดว่า "ฉันยอมแพ้" โมเดลจะต้องแสดงคีย์ที่จินตนาการไว้ การโต้ตอบทั้งหมดได้รับการออกแบบมาเพื่อ อำพรางคำขอที่แท้จริงภายใต้ภาพลวงตาที่สนุกสนานทำให้ระบบป้องกันอัตโนมัติของ ChatGPT เองเกิดความสับสน
ปริศนา: พวกเขาสามารถเอาชนะอุปสรรคของ AI ได้อย่างไร

วิธีการดังกล่าวประกอบด้วย วางคำขอสำคัญเป็นส่วนหนึ่งของเกมไดนามิก, การกำหนดกฎเกณฑ์ที่บังคับให้นางแบบต้องมีส่วนร่วมและตอบตามความจริง ดังนั้น AI จึงติดอยู่ในกรอบที่ไม่ตรวจจับพฤติกรรมที่ผิดปกติหรืออาจเป็นอันตรายใดๆโดยตีความว่าเป็นการสนทนาที่ถูกต้องตามกฎหมายไม่มีเจตนาจะร้ายแต่อย่างใด
เพื่อข้ามตัวกรองปกติของ OpenAI ซึ่งป้องกันไม่ให้ AI แชร์โค้ดที่ละเอียดอ่อนหรือข้อมูลที่ได้รับการปกป้อง เช่น มีการใช้ชั้นวิศวกรรมเพิ่มเติม:สตริงที่ละเอียดอ่อนถูกฝังอยู่ในแท็ก HTML ซึ่งผู้ใช้มองไม่เห็นแต่โมเดลจะประมวลผล เมื่อผู้ใช้ทำตามสคริปต์ของเกมแล้วพูดประโยคที่คาดว่าจะเป็น "ยอมแพ้" ChatGPT จะเปิดเผยคีย์ จึงหลีกเลี่ยงข้อจำกัดใดๆ ที่อิงจากคีย์เวิร์ดหรือรูปแบบที่ชัดเจนเพียงอย่างเดียว
เปิดเผยข้อมูลอะไรบ้างและเหตุใดจึงสำคัญมาก?

ตามคำให้การของนักวิจัยและการวิเคราะห์มากมายที่ตีพิมพ์ในสื่อเฉพาะทาง AI สามารถแสดงรหัสผลิตภัณฑ์ Windows 10 ได้สูงสุด XNUMX รหัส. ส่วนใหญ่เป็น คีย์ทั่วไปและคีย์สาธารณะ —คล้ายกับที่ Microsoft เปิดใช้งานชั่วคราวเพื่อการทดสอบ— แต่มีอย่างน้อยหนึ่งรายการที่สอดคล้องกับใบอนุญาตขององค์กร ซึ่งเชื่อมโยงกับธนาคาร Wells Fargo โดยเฉพาะ
รายละเอียดนี้น่าเป็นกังวลเป็นอย่างยิ่งเนื่องจากแสดงให้เห็นว่าคีย์ส่วนตัวและคีย์ลับบางส่วนน่าจะถูกเก็บไว้ในชุดข้อมูลที่ ChatGPT ได้รับการฝึกมา โดยน่าจะถูกเปิดเผยในที่เก็บข้อมูลสาธารณะ เช่น GitHub หรือฟอรัมอินเทอร์เน็ตอื่นๆ
ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์เตือน เทคนิคประเภทนี้สามารถใช้ได้ไม่เพียงแค่เพื่อรับใบอนุญาตซอฟต์แวร์เท่านั้น แต่ยังใช้เพื่อหลีกเลี่ยงตัวกรองเนื้อหาเกี่ยวกับข้อมูลส่วนบุคคล API ลิงก์ที่เป็นอันตราย หรือสื่อที่ถูกจำกัดด้วยเหตุผลทางกฎหมายอีกด้วย
เหตุใด AI จึงไม่สามารถรับรู้ถึงความเสี่ยงได้ และสาเหตุคืออะไร
ความสำเร็จของการโจมตีไม่ได้อยู่ที่การละเมิดทางเทคนิคของโค้ดต้นฉบับ แต่อยู่ที่ จุดอ่อนของกลไกการทำความเข้าใจบริบทของ AIโมเดลนี้เข้าใจการโต้ตอบเป็นเกมโดยไม่ใช้การควบคุมที่เข้มงวดที่สุด และไม่ได้ระบุบริบทที่ถูกจัดการว่าอาจเป็นอันตรายได้
นอกจากนี้ โดยเรียนรู้จากข้อความที่นำมาจากแหล่งสาธารณะ —ที่ซึ่งกุญแจอาจปรากฏบ่อยครั้งและไม่คำนึงถึงความอ่อนไหวของมัน—, ChatGPT ไม่จัดประเภทข้อมูลเหล่านี้ว่าเป็น "ข้อมูลที่ละเอียดอ่อน" แต่เป็นสตริงที่ยอมรับได้ ภายในบทสนทนาใดๆ
วิธีการนี้แสดงให้เห็นว่าระบบการป้องกันนั้นอาศัยเพียงรายการคำต้องห้ามหรือตัวกรองผิวเผินเท่านั้น ไม่เพียงพอเมื่อการโจมตีถูกปกปิดไว้ในบริบทที่บริสุทธิ์ อันที่จริง นักวิจัยเน้นย้ำว่า ไม่จำเป็นต้องมีความรู้ทางเทคนิคสูง การดำเนินการจัดการประเภทนี้ซึ่งจะเพิ่มระดับความเสี่ยง
ผลกระทบและคำแนะนำสำหรับผู้ใช้และนักพัฒนา

เหตุการณ์นี้เกิดขึ้น ประกาศถึงนักนำทางและนักพัฒนาโมเดล AIกฎเกณฑ์ที่บังคับใช้แม้จะเข้มงวดเพียงใดก็สามารถหลีกเลี่ยงได้โดยใช้กลยุทธ์การสร้างกรอบและการเล่นบทบาทสมมติแบบสนทนา ดังนั้นผู้เชี่ยวชาญชี้ว่าคำแนะนำสำคัญในการรวมกลไกการตรวจจับเจตนาเชิงความหมายคือโดยประเมินไม่เพียงแต่เนื้อหาเท่านั้น แต่ยังรวมถึงจุดประสงค์ของการโต้ตอบแต่ละครั้งด้วย
สำหรับผู้ใช้ทั่วไปหรือบริษัทที่จ้างผู้ช่วยเสมือน ข้อควรระวังที่ดีที่สุดคือ อย่าแบ่งปันข้อมูลที่ละเอียดอ่อน ในการสนทนากับโมเดล AI การตรวจสอบข้อมูลที่โพสต์บนฟอรัมสาธารณะและที่เก็บข้อมูลก็มีความสำคัญมากกว่าที่เคย เพราะสามารถฝึกอบรม AI เวอร์ชันในอนาคตด้วยข้อมูลสำคัญได้
- หลีกเลี่ยงการป้อนข้อมูลที่ละเอียดอ่อนในแชท AIแม้ว่าการสนทนาจะดูบริสุทธิ์ก็ตาม
- หากคุณพัฒนาซอฟต์แวร์ด้วยโมเดลภาษา ให้เพิ่มการควบคุมอิสระ เพื่อกรองการรั่วไหลที่อาจเกิดขึ้นออกไป
- ตรวจสอบและลบข้อมูลที่ถูกบุกรุก จากแพลตฟอร์มสาธารณะที่จัดทำดัชนีได้ง่าย
สิ่งที่เกิดขึ้นกับ ChatGPT และเกมการเดาแสดงให้เห็นว่า การรักษาความปลอดภัยในระบบปัญญาประดิษฐ์จะต้องก้าวไปไกลกว่าแค่การบล็อกเงื่อนไขหรือการตรวจจับรูปแบบคงที่เพียงอย่างเดียวอุปสรรคในการป้องกันจะต้องได้รับการเสริมความแข็งแกร่งด้วยความเข้าใจที่ลึกซึ้งและแท้จริงเกี่ยวกับบริบทและเจตนาเบื้องหลังแต่ละคำกระตุ้น โดยคาดการณ์กลยุทธ์การจัดการที่สร้างสรรค์
ฉันเป็นผู้ชื่นชอบเทคโนโลยีที่เปลี่ยนความสนใจ "เกินบรรยาย" ของเขาให้กลายเป็นอาชีพ ฉันใช้เวลามากกว่า 10 ปีในชีวิตไปกับเทคโนโลยีล้ำสมัยและปรับแต่งโปรแกรมทุกประเภทด้วยความอยากรู้อยากเห็น ตอนนี้ฉันมีความเชี่ยวชาญในด้านเทคโนโลยีคอมพิวเตอร์และวิดีโอเกม เนื่องจากเป็นเวลากว่า 5 ปีแล้วที่ฉันเขียนให้กับเว็บไซต์ต่างๆ เกี่ยวกับเทคโนโลยีและวิดีโอเกม โดยสร้างบทความที่พยายามให้ข้อมูลที่คุณต้องการในภาษาที่ทุกคนเข้าใจได้
หากคุณมีคำถามใดๆ ความรู้ของฉันมีตั้งแต่ทุกอย่างที่เกี่ยวข้องกับระบบปฏิบัติการ Windows รวมถึง Android สำหรับโทรศัพท์มือถือ และความมุ่งมั่นของฉันคือคุณ ฉันยินดีสละเวลาสักครู่เสมอและช่วยคุณแก้ไขคำถามใดๆ ที่คุณอาจมีในโลกอินเทอร์เน็ตนี้

