- OpenAI จำกัดคำแนะนำทางการแพทย์และกฎหมายแบบรายบุคคลโดยไม่ได้รับการดูแลจากผู้เชี่ยวชาญ
- ChatGPT กลายมาเป็นเครื่องมือทางการศึกษา: อธิบายหลักการและแนะนำผู้ใช้ให้กับผู้เชี่ยวชาญ
- ห้ามระบุชื่อยาหรือขนาดยา สร้างเทมเพลตทางกฎหมาย หรือให้คำแนะนำด้านการลงทุน
- การเปลี่ยนแปลงมีจุดมุ่งหมายเพื่อลดความเสี่ยงที่เกิดจากเหตุการณ์ที่รายงานและเสริมสร้างความรับผิดชอบ
บริษัทปัญญาประดิษฐ์มี ได้เพิ่มกฎเกณฑ์ให้เข้มงวดยิ่งขึ้นเพื่อป้องกันไม่ให้แชทบอทถูกใช้ราวกับว่าเป็นผู้เชี่ยวชาญด้านการแพทย์หรือทนายความ. ด้วยการอัปเดตนี้ คำแนะนำทางการแพทย์และกฎหมายแบบเฉพาะบุคคลถือเป็นสิ่งที่ไม่สามารถเกิดขึ้นได้ หากไม่มีการมีส่วนร่วมของผู้เชี่ยวชาญที่มีใบอนุญาต
การเปลี่ยนแปลงนี้ไม่ได้มีวัตถุประสงค์เพื่อปิดการสนทนาเกี่ยวกับสุขภาพหรือสิทธิโดยสิ้นเชิง แต่เพื่อส่งต่อไปยัง: ChatGPT จะยังคงมุ่งเน้นไปที่การเปิดเผยข้อมูล, การอธิบายแนวคิดทั่วไปและการอ้างอิงถึงผู้เชี่ยวชาญ เมื่อผู้ใช้ต้องการคำแนะนำที่สามารถใช้ได้กับกรณีเฉพาะของตน
มีอะไรเปลี่ยนแปลงไปบ้างในนโยบายการใช้งาน?

OpenAI ได้ระบุไว้ในเงื่อนไขว่า แบบจำลองของพวกเขาไม่ควรให้คำแนะนำที่ต้องมีคุณสมบัติระดับมืออาชีพโดยไม่มีการดูแล เหมาะสม ในทางปฏิบัติ หมายความว่าระบบ จะไม่เสนอการวินิจฉัย กลยุทธ์ทางกฎหมายที่เหมาะสม หรือการตัดสินใจทางการเงิน ปรับให้เข้ากับสถานการณ์ส่วนบุคคล
กฎดังกล่าวยังระบุรายละเอียดข้อห้ามเฉพาะเจาะจงด้วย: ห้ามทำสิ่งต่อไปนี้อีกต่อไป ชื่อยาหรือคำแนะนำการใช้ยา ในบริบทของคำแนะนำรายบุคคล นี่ไม่รวมถึงเทมเพลตสำหรับการเรียกร้องหรือคำแนะนำในการดำเนินคดี หรือข้อเสนอแนะสำหรับการซื้อ/ขายสินทรัพย์หรือพอร์ตโฟลิโอส่วนบุคคล
สิ่งที่คุณสามารถสั่งได้และสิ่งที่ห้าม
การใช้เพื่อการศึกษายังคงรักษาไว้: โมเดลสามารถ อธิบายหลักการ ชี้แจงแนวคิด และชี้ให้เห็นกลไก ข้อมูลทั่วไปเกี่ยวกับสุขภาพ กฎหมาย หรือการเงิน เนื้อหานี้ไม่สามารถใช้แทนคำแนะนำจากผู้เชี่ยวชาญ และไม่ควรนำไปใช้ในการตัดสินใจที่มีความเสี่ยงสูง
อะไรก็ตามที่เกี่ยวข้องกับ คำแนะนำส่วนบุคคล หรือการสร้างเอกสารที่อาจส่งผลโดยตรงต่อกฎหมายหรือสุขภาพ เมื่อผู้ใช้แจ้งกรณีเฉพาะ ระบบจะจัดลำดับความสำคัญของการแจ้งเตือนด้านความปลอดภัยและ การอ้างอิงถึงผู้เชี่ยวชาญที่มีใบอนุญาต.
ผลกระทบในสเปนและยุโรป
สำหรับผู้ใช้ในสเปนและสภาพแวดล้อมในยุโรป มาตรการเหล่านี้สอดคล้องกับสภาพแวดล้อมด้านกฎระเบียบที่ต้องการ มาตรการป้องกันที่เข้มงวดยิ่งขึ้นในพื้นที่ที่มีความอ่อนไหวอนุญาตให้มีคำแนะนำทั่วไป แต่การตัดสินใจที่ส่งผลต่อสุขภาพหรือสิทธิจะต้องดำเนินการโดยบุคลากรที่มีคุณสมบัติและความรับผิดชอบ หน้าที่ทางจริยธรรม ยากที่จะแปลเป็น AI
นอกจากนี้ การอัปเดตยังเน้นย้ำถึงความสำคัญของการไม่แบ่งปันข้อมูลที่ละเอียดอ่อน โดยเฉพาะในบริบททางการแพทย์และกฎหมาย ความลับและการปฏิบัติตามกฎระเบียบ สิ่งเหล่านี้มีความจำเป็น ซึ่งเป็นเหตุผลว่าทำไมบริษัทจึงเน้นย้ำถึงการใช้งานอย่างรอบคอบและการตรวจสอบจากผู้เชี่ยวชาญเมื่อมีผลกระทบจริงต่อบุคคล
เหตุใดกฎระเบียบจึงเข้มงวดยิ่งขึ้น: ความเสี่ยงและเหตุการณ์ต่างๆ
การเพิ่มกฎระเบียบที่เข้มงวดขึ้นนี้เกิดขึ้นหลังจากมีรายงานเตือนถึงผลกระทบเชิงลบจากการตัดสินใจที่ละเอียดอ่อนโดยอิงจากการตอบสนองของแชทบอท หนึ่งในกรณีที่สื่อมวลชนอ้างถึงคือ อาการพิษจากโบรไมด์ อธิบายไว้ในวารสารการแพทย์ของอเมริกา โดยปฏิบัติตามการเปลี่ยนแปลงการรับประทานอาหารที่ได้รับแรงบันดาลใจจากข้อมูลที่ได้ทางออนไลน์
คำให้การของผู้ใช้ในยุโรปยังได้รับการเผยแพร่ ซึ่งเมื่อเผชิญกับอาการที่น่ากังวล พวกเขาก็ไว้วางใจการประเมินเบื้องต้นที่ผิดพลาดและ การปรึกษาหารือล่าช้า กับแพทย์ของพวกเขา แต่ต่อมากลับได้รับการวินิจฉัยว่าเป็นมะเร็งในระยะลุกลาม เรื่องราวเหล่านี้แสดงให้เห็นว่าทำไม AI ไม่ควรเข้ามาแทนที่มืออาชีพ ในเรื่องที่มีความละเอียดอ่อนสูง
การควบคุมถูกนำไปใช้ในทางปฏิบัติอย่างไร

แพลตฟอร์มวางตำแหน่งแชทบอทให้เป็นเครื่องมือการเรียนรู้: อธิบาย วางบริบท และชี้ให้เห็นข้อจำกัดหากมีการร้องขอที่ต้องการหลีกเลี่ยงอุปสรรค (เช่น ปริมาณยาหรือกลยุทธ์ทางกฎหมายเฉพาะบุคคล) ระบบรักษาความปลอดภัยจะบล็อกหรือเปลี่ยนเส้นทางการสนทนา โดยเชิญชวน... ไปหามืออาชีพ.
คำเตือนด้านความปลอดภัยและแนวทางการใช้งานอย่างรับผิดชอบจะมาพร้อมกับคำตอบสำหรับหัวข้อที่ละเอียดอ่อน วัตถุประสงค์คือเพื่อลดความเสี่ยงของ การตีความที่เป็นอันตราย และมีการส่งเสริมให้การตัดสินใจใดๆ ที่จะมีผลตามมาจริงควรทำภายใต้คำแนะนำของผู้เชี่ยวชาญ
ผลกระทบต่อผู้ป่วย ผู้ใช้ และผู้เชี่ยวชาญ
สำหรับพลเมือง การเปลี่ยนแปลงนี้ทำให้มีกรอบงานที่ชัดเจนยิ่งขึ้น: ChatGPT สามารถเป็นประโยชน์สำหรับ เข้าใจข้อกำหนด กฎระเบียบ หรือกระบวนการแต่ไม่ใช่เพื่อการแก้ไขคดีทางคลินิกหรือการฟ้องร้อง เส้นสีแดงนั้นมุ่งลดความเสียหายและหลีกเลี่ยงความรู้สึกผิดๆ ของการมี "คำแนะนำ" ในขณะที่ในความเป็นจริงแล้ว ข้อมูลการศึกษา.
สำหรับแพทย์ ทนายความ และผู้เชี่ยวชาญอื่นๆ การศึกษาต่อเนื่องจะช่วยรักษาหน้าที่ที่ต้องใช้การตัดสินใจของผู้เชี่ยวชาญและ ความรับผิดทางกฎหมายในเวลาเดียวกันยังเปิดพื้นที่สำหรับการทำงานร่วมกันซึ่ง AI จะให้บริบทและเอกสารภายใต้เสมอ การกำกับดูแลของมนุษย์ และมีความโปร่งใสในขอบเขตของตน
แหล่งที่มาและเอกสารอ้างอิง

นโยบายและข้อตกลงการบริการที่อัปเดตของ OpenAI ระบุไว้อย่างชัดเจน ขีดจำกัดใหม่ เพื่อใช้ในด้านสาธารณสุขและกฎหมาย ด้านล่างนี้คือเอกสารและเนื้อหาที่เกี่ยวข้องบางส่วนที่อธิบายขอบเขตและวัตถุประสงค์ของมาตรการเหล่านี้
- นโยบายการใช้งาน OpenAI (ข้อจำกัดเกี่ยวกับคำแนะนำทางการแพทย์และกฎหมาย)
- ข้อตกลงการให้บริการ OpenAI (เงื่อนไขการให้บริการ)
- เงื่อนไขการให้บริการ (OpenAI) (เงื่อนไขที่ใช้ได้)
- ประวัติการแก้ไขนโยบาย (การเปลี่ยนแปลงล่าสุด)
- ประกาศในชุมชน OpenAI (ข้อตกลงการให้บริการ)
- ครอบคลุมข้อจำกัดใหม่ (การวิเคราะห์ผลกระทบ)
- ข้อจำกัดในการสนับสนุนด้านสุขภาพจิต (แนวทางการรักษาความปลอดภัย)
ด้วยการเปลี่ยนแปลงกฎระเบียบนี้ บริษัทจึงกำหนดบทบาทของแชทบอทได้อย่างชัดเจน: เพื่อแจ้งและแนะนำในแง่ทั่วไปโดยไม่ต้องรับบทบาททางคลินิกหรือทางกฎหมาย สำหรับผู้ใช้ แนวทางปฏิบัติมีความชัดเจน: เมื่อปัญหาส่งผลกระทบต่อสุขภาพหรือสิทธิของพวกเขา การให้คำปรึกษาจะต้องผ่าน ผู้เชี่ยวชาญที่มีคุณสมบัติ.
ฉันเป็นผู้ชื่นชอบเทคโนโลยีที่เปลี่ยนความสนใจ "เกินบรรยาย" ของเขาให้กลายเป็นอาชีพ ฉันใช้เวลามากกว่า 10 ปีในชีวิตไปกับเทคโนโลยีล้ำสมัยและปรับแต่งโปรแกรมทุกประเภทด้วยความอยากรู้อยากเห็น ตอนนี้ฉันมีความเชี่ยวชาญในด้านเทคโนโลยีคอมพิวเตอร์และวิดีโอเกม เนื่องจากเป็นเวลากว่า 5 ปีแล้วที่ฉันเขียนให้กับเว็บไซต์ต่างๆ เกี่ยวกับเทคโนโลยีและวิดีโอเกม โดยสร้างบทความที่พยายามให้ข้อมูลที่คุณต้องการในภาษาที่ทุกคนเข้าใจได้
หากคุณมีคำถามใดๆ ความรู้ของฉันมีตั้งแต่ทุกอย่างที่เกี่ยวข้องกับระบบปฏิบัติการ Windows รวมถึง Android สำหรับโทรศัพท์มือถือ และความมุ่งมั่นของฉันคือคุณ ฉันยินดีสละเวลาสักครู่เสมอและช่วยคุณแก้ไขคำถามใดๆ ที่คุณอาจมีในโลกอินเทอร์เน็ตนี้
