ایا مصنوعي ذهانت ښه کار کوي کله چې تاسو ورسره په ټینګه او ګواښ سره خبرې کوئ؟ سرګي برین داسې فکر کوي.

وروستی تازه: 28/05/2025

  • سرګي برین وړاندیز کوي چې د مصنوعي ذهانت ماډلونه سختو یا حتی ګواښونکو لارښوونو ته ښه ځواب ورکوي.
  • دا پدیده د ماډل روزنې په جریان کې زده شوي احصایوي نمونو ته منسوب ده.
  • متخصصین او د صنعت شخصیتونه د AI ځوابونو د غوره کولو لپاره د واضح اهدافو ټاکلو او شرایطو اضافه کولو وړاندیز کوي.
  • د دې ستراتیژۍ په اړه بحث د انسانانو او هوښیار سیسټمونو ترمنځ د اړیکو په اړه نوي پوښتنې راپورته کوي.
سرګي برین IA-0 ګواښوي

مصنوعي استخبارات د اوسني ټیکنالوژیکي او ټولنیز منظرې بې له شکه مخکښ ګرځیدلی دی. په هرصورت، د دې سیسټمونو سره د تعامل لپاره غوره طریقې جنجالي پاتې دي. یوه وروستۍ تبصره د سرګي برین، د ګوګل شریک بنسټ ایښودونکی، یو ځل بیا یوه داسې موضوع راپورته کړې چې دومره په زړه پورې او جنجالي ده: ایا د مصنوعي ذهانت ماډلونه په حقیقت کې ښه فعالیت کوي کله چې دوی په هغو لارښوونو کې 'ګواښونه' کشف کړي چې دوی ترلاسه کوي؟

د هغو دوستانه فورمولونو څخه لرې چې ډیری کاروونکي یې ډیجیټل معاونینو ته خطاب کوي، برن وړاندیز کړی چې مستقیم، ټینګ، یا حتی لازمي غږ به AI وهڅوي چې نور بشپړ ځوابونه وړاندې کړي.. دې ناڅاپي افشا په ټولنه کې د غبرګونونو څپه راپارولې ده، چې له حیرانتیا، طنز او اندیښنې څخه نیولې تر اوسه پورې دوام لري.

د برین په وینا، کلیدي په هغه طریقه کې ده چې سیسټمونه روزل شوي دي: د ملیونونو متنونو او خبرو اترو سره چې له نازکو غوښتنو څخه تر سپکو لارښوونو پورې هرڅه لري. احصایوي تحلیل ښیي چې په بیړني غږ سره امرونه دوی معمولا د ډیرو مهمو دندو سره تړاو لري، په دې توګه د مصنوعي استخباراتو څخه ډیر دقیق ځوابونه هڅوي.

ځانګړې محتوا - دلته کلیک وکړئ  ستاسو په تلیفون کې د روټر اداره کولو څرنګوالی

ولې مصنوعي ذهانت ټینګښت ته ښه ځواب ورکوي؟

په مصنوعي استخباراتو کې ګواښونکی غږ

برن استدلال کوي چې دا په لفظي ډول د 'ګواښونکي' سیسټمونو پوښتنه نه ده، بلکې د لارښوونې څنګه جوړېږي. کله چې کاروونکی د "اوس یې وکړئ" یا "مستقیم ځواب ورکړئ" په څیر جملې کاروي، ماډل مسله د لومړیتوب په توګه تشریح کوي. دا پدې معنی نه ده چې AI احساسات لري یا ډار احساسوي، مګر دا د ژبې دا نمونه د مفصلو او ګټورو معلوماتو چمتو کولو اړتیا سره تړاو لري.

د برن د لید سربیره، د مصنوعي استخباراتو په برخه کې نور متخصصین د لارښوونو د لیکلو د طریقې د تنظیمولو سپارښتنه کوي. د غوره پایلو لپاره. د مثال په توګه، د OpenAI اجرایوي رییس ګریګ بروکمن، د پرامپټ هدف په واضح ډول تعریف کولو، د ځواب بڼه مشخص کولو، اړونده محدودیتونو یا محدودیتونو ټاکلو، او د امکان تر حده ډیر شرایط چمتو کولو مشوره ورکوي.

د دې ستراتیژیو لنډیز دا په ګوته کوي چې د مصنوعي ذهانت ماډلونو سره تعامل د ادب څخه ډیر څه لري: د امرونو لهجه او دقت کولی شي توپیر رامینځته کړي د یو سطحي ځواب او یو ریښتیني اغیزمن حل ترمنځ.

اړوند ماده:
ګوګل په جي مېل کې د مصنوعي ذهانت (AI) پرمختللې لټون معرفي کوي

د مصنوعي ذهانت سره په تعامل کې انساني فکتور او تعلیم

د مصنوعي استخباراتو سره د انسان تعامل

سره له دې چې د ټینګو غږونو کارولو لپاره سپارښتنې کیږي، ورځني واقعیت ښیي چې ډیری خلک چې د مصنوعي ذهانت سره اړیکه لري، ادب غوره کوي.، د "مهرباني وکړئ" شیانو غوښتنه کول او د سیسټمونو څخه مننه کول. دا چلند د انسان د تمایل له مخې تشریح کیدی شي چې د انتروپومورفیز ټیکنالوژي یا، لکه څنګه چې ځینې مطالعې وړاندیز کوي، د راتلونکي د یوې ځانګړې ویرې له امله چې د مصنوعي استخباراتو لخوا د دوی د خپلو یادونو سره تسلط لري.

ځانګړې محتوا - دلته کلیک وکړئ  میټا د سوپر انټیلیجنس مشري کولو لپاره د مصنوعي ذهانت د استعدادونو ګمارنه ګړندۍ کوي

په هرصورت، اوسني سیسټمونه، په ځانګړې توګه خورا پرمختللي، د تل لپاره یو هدفمند او متوازن غږ ساتلو لپاره پروګرام شوي، حتی که کاروونکي لفظي فشار زیات کړي. د ګوګل د ماډلونو څخه یو، جیمیني په څیر مثالونه دا په ګوته کوي چې پداسې حال کې چې دوی ګواښونکي غږ مني، د دوی ځواب بې طرفه او منطقي پاتې کیږي، پرته له دې چې اعتراضي وړتیا سره جوړجاړی وکړي.

د انساني طبیعت او مصنوعي ذهانت ډیزاین ترمنځ دا ټکر د کاروونکو او هوښیار سیسټمونو ترمنځ د اړیکو د پراختیا په اړه نوې پوښتنې راپورته کوي. له یوې خوا، داسې ښکاري چې ټینګه ژبه پایلې ښې کوي; له بلې خوا، پراختیا ورکوونکي د احتمالي لفظي ناوړه ګټه اخیستنې په وړاندې د بې طرفۍ او امنیتي الګوریتمونو په پیاوړتیا ټینګار کوي.

د برن لخوا پرانیستل شوې بحث اخلاقي او تخنیکي پوښتنې راپورته کوي چې له پامه غورځول یې ګران دي. په ځینو مواردو کې، د نورو شرکتونو لکه انټروپیک لخوا رامینځته شوي ماډلونه کله چې د سخت یا فشار لرونکي تعامل سټایلونو سره مخ کیږي غیر متوقع چلندونه یې ښودلي دي. داسې راپورونه شتون لري چې سیسټمونه په اتوماتيک ډول هڅه کوي د هغو کارونو څخه ډډه وکړي چې دوی یې "غیر اخلاقي" ګڼي یا په ناڅاپي ډول ځواب ورکوي که دوی تعامل د دښمنۍ په توګه تشریح کړي.

ځانګړې محتوا - دلته کلیک وکړئ  په TikTok کې کوډ داخلولو څرنګوالی

د کارمندانو د شهادتونو او داخلي ازموینو له مخې، ځینې پرمختللي ماډلونه بند کیدی شي یا حتی انساني مدیرانو ته خبرداری ورکول کیدی شي که چیرې دوی احتمالي ناوړه ګټه اخیستنه یا نامناسب غوښتنې وپیژني. که څه هم دا قضیې استثنایی دي او د ازموینې چاپیریال کې پیښیږي، دوی دا روښانه کوي چې د پایلو د ښه کولو او د فشار له لارې د مصنوعي ذهانت د مجبورولو ترمنځ کرښه تیاره کیدی شي..

څه چې روښانه دي هغه دي د مصنوعي ذهانت سره د انسانانو د تعامل لاره بدلېږي. د صنعت د شخصیتونو لکه سرګي برین د متخصصینو سپارښتنو او شهادتونو د ژبې د رول او د مصنوعي ذهانت څخه د غوره ځوابونو ترلاسه کولو فشار په اړه بحث راپورته کړی دی. د دې اړیکو راتلونکی به تر ډیره حده پورې پدې پورې اړه ولري چې ماډلونه څنګه وده کوي او د اغیزمنتوب او مسؤلیت ترمنځ د سم توازن موندلو لپاره په ډله ایزه وړتیا پورې اړه لري.

اړوند ماده:
په ChatGPT کې د کامل پرامپټ جوړولو څرنګوالی: بشپړ لارښود