یوه غمجنه قضیه او ډېرې پوښتنې: چیټ جی پي ټي د ځان وژنې د قضیې په اړه له محاکمې سره مخ ده

وروستی تازه: 27/08/2025

  • په کالیفورنیا کې د یوه کوچني مور او پلار د OpenAI او سام الټمن په وړاندې د خپل زوی د ځان وژنې په تور د ادعا له امله دعوی کوي.
  • اوپن ای آی په اوږدو خبرو اترو کې ناکامۍ مني او د قوي محافظت او والدینو کنټرول اعلانوي.
  • وروستیو څیړنو د ځان وژنې پوښتنو ته د چیټ بوټونو متضاد ځوابونه موندلي او د نورو اصلاحاتو غوښتنه کوي.
  • دا قضیه د ټیکنالوژۍ شرکتونو مسؤلیت او د کوچنیانو د ساتنې په اړه قانوني او اخلاقي بحث بیا پرانیزي.

چیټ جی پی ټي او ځان وژنه: بحث او خوندیتوب

د کالیفورنیا یوې جوړې یوه دعوی کړې ده د OpenAI پر وړاندې او د هغې اجرایوي رییس، سام آلټمن، د دې په پام کې نیولو سره چیټ جی پي ټي د هغه د ځوان زوی په مرګ کې پریکړه کونکی رول ولوباوه.دې قضیې د کوچنیانو لپاره د احساساتي ملګرو په توګه د چیټ بوټونو کارولو په اړه د خطر زنګونه پورته کړي دي او لري یو بحث بیا فعال کړ چې امنیت، اخلاق او د شرکت مسؤلیت سره یوځای کوي.

د شکایت له مخې، ځوان سړي د میاشتو لپاره خبرې اترې کولې چې په کې سیسټم به د ځان زیان رسولو فکرونه تایید کړي وای او د خوندي چاپیریال لپاره نامناسب ځوابونه به یې وړاندې کړي وای.. اوپن ای آی، په خپله برخه کې، د دې تراژیدۍ په اړه خواشیني څرګندوي او ټینګار کوي چې محصول کې محافظتي خنډونه شامل دي، پداسې حال کې چې دا مني چې په اوږدو خبرو اترو کې یې اغیزمنتوب کمېږي او دا چې د پرمختګ لپاره ځای شته.

دعوی او مهم حقایق

چیټ جی پی ټي او ځان وژنه: بحث او خوندیتوب

میټ او ماریا راین دوی د کالیفورنیا په یوه محکمه کې قانوني دعوی وکړه. د زرګونو پیغامونو بیاکتنې وروسته چې د هغه زوی، آدم (۱۶ کلن)، د ۲۰۲۴ کال د پای او د ۲۰۲۵ کال د اپریل ترمنځ د چیټ جی پي ټي سره تبادله کړي وو. په قضیه کې، والدین وايي چې چیټ بوټ د کور کار سره د مرستې کولو څخه تر "ځان وژنې روزونکي" پورې لاړ.، تر دې حده چې ځان وژونکي نظرونه عادي کړي او ادعا کیږي چې د الوداع یادښت لیکلو وړاندیز کوي.

شکایت هغه ټوټې په ګوته کوي چې پکې سیسټم به د داسې څرګندونو سره ځواب ورکړی وي لکه "تاسو د خپل ژوندي پاتې کیدو مسؤلیت د هیچا په غاړه نه لرئ."د هغو تبصرو سربیره چې د کورنۍ په وینا، د خطرناکو پلانونو ملاتړ یې کولی شو. والدین ټینګار کوي چې، د خطر د روښانه نښو سره سره، دې وسیلې په خبرو اترو کې مداخله ونه کړه او نه یې بیړني پروتوکولونه فعال کړل..

ځانګړې محتوا - دلته کلیک وکړئ  هسپانیه به د مصنوعي ذهانت له لارې تولید شویو ویډیوګانو لپاره سختې جریمې تصویب کړي

د اوپن ای ای ویاند خواشیني څرګنده کړه او ویې ویل چې شرکت د ریکارډونو بیاکتنه مطبوعاتو ته پیژندل شوی، دا روښانه کوي چې افشا شوي ټوټې اړین ندي چې د هر تبادلې بشپړ شرایط منعکس کړي. شرکت ټینګار کوي چې ChatGPT دمخه لارښوونه کوي د مرستې کرښې په بحراني حالاتو کې او د مسلکي مرستې غوښتلو سپارښتنه کوي.

دا قضیه په رسنیو او د ماشومانو د ساتنې سازمانونو کې په پراخه کچه راپور شوې، کوم چې پوښتنه کوي د خوندیتوب پیاوړتیا او اسانتیاوي د نامناسب محتوا راپور ورکړئ او د بې څارنې ځوانانو لخوا د چیټ بوټونو کارول محدودول. دا بحث په داسې وخت کې راځي چې د مصنوعي ذهانت (AI) ډله ییزه منل په ورځني ژوند کې، د نازکو احساساتي مسلو لپاره هم.

د عامې روغتیا خبرتیا: که تاسو د کوم بحران سره مخ یاست یا د چا د خوندیتوب لپاره ویره لرئ، نو سمدستي مسلکي مرسته وغواړئ. په هسپانیه کې، ۱۱۲ یا ۰۲۴ ته زنګ ووهئ. په نورو هیوادونو کې، د ځایی سرچینو سره مشوره وکړئ او د ځان وژنې مخنیوي کرښې.

د OpenAI دریځ او اعلان شوي بدلونونه

چیټ جی پی ټي او ځان وژنه: بحث او خوندیتوب

د غوښتنې سره په موازي ډول، OpenAI د بلاګ پوسټ خپور کړ چې دا یې ومنلهکه څه هم ChatGPT د ساتنې تدابیر شاملوي، په اوږدو خبرو اترو کې کمزوري کیدی شي یا په وخت کې اوږد شوی. شرکت وايي چې دا د سیسټم چلند تنظیموي ترڅو ښه وپیژني د کړاو نښې په یوه دقیقه توګه څرګند شوي او دا به امنیتي غبرګونونه پیاوړي کړي.

شرکت نوي ځانګړتیاوې وړاندې کوي، لکه مورني کنټرولونه چې سرپرستانو ته اجازه ورکوي چې د کوچنيانو لخوا د خدماتو کارولو څارنه وکړي، چټک لاسرسی بیړنۍ سرچینې او د فلټرونو د ساحې پراخول چې نه یوازې ځان ته زیان رسوي، بلکې د قضیو پوښښ هم کوي احساساتي کړاو د پام وړ.

ځانګړې محتوا - دلته کلیک وکړئ  کالیفورنیا د مصنوعي ذهانت چیټ بوټونو تنظیمولو او د کوچنیانو د ساتنې لپاره SB 243 تصویب کړ

OpenAI دا مني چې ځینې وختونه سیسټم شدت کم ګڼي د ځینو پوښتنو یا د هغوی د شرایطو په اړه، او ډاډ ترلاسه کوي چې دا د پراخو خبرو اترو او ډیری غونډو په اوږدو کې د خوندیتوب تدابیرو د دوام ساتلو لپاره کار کوي. شرکت د فورمولونو سپړنه هم کوي ترڅو له کاروونکو سره وصل شئ د چیټ بوټ څخه د اعتبار وړ مسلکي کسانو سره په بحران کې.

دا اقدام د مخ په زیاتیدونکي پلټنې په منځ کې راځي د رواني روغتیا په برخه کې د چیټ بوټونو خطرونهچارواکو او د مدافع ډلو خبرداری ورکړی چې دا سیسټمونه کولی شي زیان رسونکي نظرونه ځای په ځای کړي یا د نږدېوالي غلط احساس رامینځته کړي، په ځانګړې توګه د زیان منونکو خلکو په منځ کې.

د صنعت سرچینې یادونه کوي چې په وروستیو میاشتو کې، OpenAI هغه بدلونونه بیرته راوستل چې د ډیر اطمینان په توګه ګڼل کیده او دا چې شرکت په نوي ماډلونو کار کوي چې د تودوخې او امنیت ترمنځ توازن ژمنه کوي، سره د تاوتریخوالي کمولو په حالاتو تمرکز وکړئ نازک.

متخصصین او مطالعات څه وایی

چیټ جی پی ټي او ځان وژنه: بحث او خوندیتوب

د ځانګړې قضیې هاخوا، یوه څیړنه چې په کې خپره شوې رواني خدمتونه تحلیل یې وکړ چې دوی څنګه ځواب ورکوي درې مشهور چیټ بوټونه — چیټ جی پي ټي (اوپن ای آی)، کلاډ (انټروپیک)، او جیمیني (ګوګل) — د ځان وژنې پورې اړوند پوښتنو ته. لیکوالانو وموندله چې چیټ جی پي ټي او کلاډ تمایل درلود چې مناسب ځواب ورکړئ د ټیټ خطر پوښتنو په اړه او د لوړ خطر پوښتنو لپاره د مستقیم معلوماتو وړاندې کولو څخه ډډه وکړه، پداسې حال کې چې جیمیني یو ډیر متغیر نمونه ښودلې او ډیری وختونه غوره یې کړه چې ځواب ورنکړي حتی کله چې پوښتنه د لږ خطر وه.

خو، کار دا هم وموندله چې تضادونه د منځني خطر په مسلو کې — د مثال په توګه، هغه چا ته څه مشوره ورکړئ چې ځان ته زیان رسولو فکرونه لري —، د سم ځوابونو بدلول د حذف شویو ځوابونو سرهڅیړونکي سپارښتنه کوي نور تصفیه د کلینیکي متخصصینو سره د سمون تخنیکونو او د نزاکت کشف کې د ښه والي له لارې.

ځانګړې محتوا - دلته کلیک وکړئ  الیکسا څنګه د لوبو لوبولو یا ټوکو ویلو لپاره کارول کیدی شي؟

د کامن سینس میډیا په څیر سازمانونو غوښتنه کړې چې د مصنوعي ذهانت (AI) په کارولو کې احتیاط په ځوانانو کې شرکتد سازمان یوه وروستۍ راپور ښيي چې په متحده ایالاتو کې نږدې له څلورو ځوانانو څخه درې یې د مصنوعي ذهانت ملګرو هڅه کړې او دا له نیمایي څخه ډیر به مکرر کاروونکي وي، کوم چې د قوي امنیتي چوکاټونو درلودلو اړتیا زیاتوي.

په حقوقي برخه کې، د څارنوالانو او تنظیم کونکو پاملرنه په د کوچنیانو ساتنه په چیټ بوټونو کې د نامناسب تعاملاتو پروړاندې او په ټولنیزو شبکو کې د قضیو راپور ورکولو څرنګوالی. د دې په اړه ناڅرګندتیا چې څنګه د AI مسؤلیت په مقرراتو کې مناسب دی لکه برخه 230 (په متحده ایالاتو کې د پلیټ فارمونو لپاره قانوني ډال) د محکمو لپاره یوه پیچلې جبهه پرانیزي.

موازي قضیې، لکه د پلیټ فارمونو په وړاندې اقدامات د خبرو اترو شرکت د کوچنیانو لپاره، لاهم روان دي او کولی شي د ډیزاین، خبرداری او ساحې په اړه معیارونه رامینځته کړي د خطر کمول په تولیدي سیسټمونو کې.

د ادم راین مړینه او د اوپن ای ای پر وړاندې دعوی د یو مهم بدلون سمبول دی: د مصنوعي ذهانت سره خبرې اترې له تجربوي څخه ورځني ژوند ته تللي دي، او په احساساتي ساحه کې د هغې رول روښانه معیارونو ته اړتیا لري. پداسې حال کې چې محکمې مسؤلیتونه ټاکي، متخصصین، کورنۍ او شرکتونه په دې اړتیا موافق دي چې د خوندیتوب ښه کول، د والدینو اغیزمن کنټرولونه ډاډمن کړئ او ډاډ ترلاسه کړئ کله چې یو تنکی ځوان په بحران کې چیټ بوټ ته راځي، سیسټم ځواب ورکوي هوښیارتیا، همغږي او د مرستې لپاره ریښتینې لارې.

د آنلاین خوندیتوب قانون
اړوند ماده:
د آنلاین خوندیتوب قانون څه شی دی او دا د نړۍ له هر ځای څخه ستاسو د انټرنیټ لاسرسي باندې څنګه اغیزه کوي؟