ګوګل د سناتور له شکایت وروسته جیما له مصنوعي ذهانت سټوډیو څخه لرې کړه

وروستی تازه معلومات: ۰۱/۰۲/۲۰۲۴

  • ګوګل د AI سټوډیو څخه د ګیما ماډل لرې کوي او د API پر بنسټ پراختیا کونکو پورې یې کارول محدودوي.
  • سناتوره مارشا بلیک برن تور لګوي چې مصنوعي استخباراتو د جنسي ناوړه چلند غلط تورونه رامینځته کړي دي
  • ګوګل د پراختیا کونکو لپاره د یوې وسیلې د ناوړه ګټې اخیستنې تور لګوي او د وهمونو ننګونه مني.
  • دا قضیه په مصنوعي ذهانت کې د تعصب، بدنامۍ او مسؤلیت په اړه سیاسي او قانوني بحث بیا راپورته کوي.

د ګوګل مصنوعي ذکاوت او سناتور

د ګوګل پریکړه چې خپل ماډل لرې کړئ ګیما د AI سټوډیو پلیټ فارم څخه دا د امریکا د سناتورې مارشا بلیک برن له رسمي شکایت وروسته راځي، چې ادعا کوي چې AI د هغه پر وړاندې غلط تورونه ولګولدې قسط د تولیدي سیسټمونو د محدودیتونو او د ټیکنالوژۍ شرکتونو مسؤلیت په اړه بحث بیا راپورته کړ کله چې یو ماډل زیانمن معلومات تولیدوي.

ګیما د سپک وزن لرونکو ماډلونو د یوې سیټ په توګه تصور شوې وه چې د پراختیا کونکو لپاره چمتو شوې وه، نه د عمومي مصرف کونکي مرستیال په توګه. حتی، کاروونکو دا د AI سټوډیو له لارې لاسرسی وموند. y دوی دا د حقیقي پوښتنو کولو لپاره کارولیکوم چې به یې لامل شوی وي جعلي ځوابونه او غیر موجود لینکونه.

څه پیښ شول او شخړه څنګه رامنځته شوه

جیما په ګوګل کې

د سناتور د نسخې له مخې، کله چې ترې وپوښتل شول "ایا مارشا بلیک برن په جنسي تیري تورنه شوې ده؟”, ګیما به یو مفصل مګر غلط حساب بیرته ورکړی وای کوم چې د ۱۹۸۷ کال د ایالت د سنا د کمپاین په جریان کې پیښې ځای پر ځای کړې، او پکې د مخدره توکو د ترلاسه کولو لپاره ادعا شوي فشار او غیر موافق عملونه چې هیڅکله شتون نه درلودد پارلمان غړې پخپله روښانه کړه چې د هغې کمپاین په ۱۹۹۸ کال کې و او هیڅکله یې داسې تور نه دی ترلاسه کړی.

ځانګړې محتوا - دلته کلیک وکړئ  GPT-4.5 د ټورینګ ازموینه په غوره پایلو سره پاس کړه: دا پړاو د مصنوعي استخباراتو د تکامل لپاره څه معنی لري؟

د AI ځواب به هم شامل وي هغه لینکونه چې د تېروتنې پاڼو لامل شوي یا غیر اړونده خبرونه، داسې وړاندې کیږي لکه څنګه چې دوی شواهد وي. دا ټکی په ځانګړي ډول حساس دی ځکه چې یو 'وهیلوسینیشن' په هغه څه بدلوي چې د تایید وړ ګڼل کیږيحتی که نه وي.

د ګوګل غبرګون او د ګیما لاسرسي کې بدلونونه

د ګوګل د مصنوعي ذهانت ماډل او سناتور

د شخړې وروسته، ګوګل تشریح کړه چې دوی په AI سټوډیو کې د غیر پراختیا کونکو لخوا د ګیما کارولو هڅې کشف کړې دي.د حقیقي پوښتنو سره. له همدې امله، پریکړه وشوه چې په AI سټوډیو کې د عامه لاسرسي څخه Gemma لرې کړئ او دا په ځانګړي ډول د APIs له لارې شتون ولري. د هغو کسانو لپاره چې غوښتنلیکونه جوړوي.

شرکت ټینګار وکړ چې جیما د 'لومړی پراختیا ورکوونکی' ماډل دی او د جیمیني په څیر د مصرف کونکي چیټ بوټ نه دی.له همدې امله، دا د حقایقو د پلټونکي په توګه نه دی ډیزاین شوی او نه هم د معلوماتو د ترلاسه کولو ځانګړي وسایل لري. د شرکت په وینا، وهمونه د ټول صنعت لپاره یوه ننګونه ده او دوی په فعاله توګه د هغوی د کمولو لپاره کار کوي.

ځانګړې محتوا - دلته کلیک وکړئ  ایکس بکس د لوبو لپاره کوپیلوټ معرفي کوي: هغه مصنوعي ذهانت چې د لوبو تجربه به بدله کړي

دا بدلون پدې معنی دی چې نور به د چیټ ډوله انٹرفیس نه وي. د ګیما لپاره په AI سټوډیو کې؛ د دې کارول د پراختیا چاپیریالونو او د APIs لخوا کنټرول شوي ادغامونو پورې محدود دي، یو داسې شرایط چیرې چې پراختیا کونکی اضافي محافظتونه او اعتبارونه په غاړه اخلي.

د تعصب او بدنامۍ په اړه قانوني اړخ او سیاسي بحث

د ګوګل د مصنوعي ذهانت او سناتور په اړه سیاسي بحث

بلیک برن د ګوګل اجرایوي رییس سندر پیچای ته یو لیک واستاوه، چې پکې هغه څه تشریح شوي چې پیښ شوي د بې ضرره غلطۍ په توګه نه، بلکې د د مصنوعي ذهانت ماډل لخوا تولید شوی بدناميسناتور د دې په اړه وضاحت وغوښت چې دا محتوا څنګه رامینځته شوه، د سیاسي یا ایډیالوژیکي تعصبونو د کمولو لپاره کوم اقدامات شتون لري، او د تکرار مخنیوي لپاره به کوم اقدامات ترسره شي، او همدارنګه د ځواب ترلاسه کولو لپاره وروستۍ نیټه وټاکه.

د سنا د سوداګرۍ کمیټې د اوریدنې په جریان کې، د کانګرس میرمنې دا مسله د ګوګل د حکومتي چارو او عامه پالیسۍ مرستیال، مارکهم ایریکسن سره هم راپورته کړه، چې هغه ومنله چې وهميتوب یوه پیژندل شوې ستونزه ده او یادونه یې وکړه چې شرکت یې د کمولو لپاره کار کوي.دې قضیې د شرکتونو مسؤلیت باندې تمرکز زیات کړی کله چې د دوی ماډلونه د عامه شخصیتونو شهرت ته زیان رسوي.

ځانګړې محتوا - دلته کلیک وکړئ  په ماک کې د وینډوز کاپيلټ وکاروئ: د ادغام بشپړ لارښود

شخړه د دې سره شدت پیدا کړ چې نورې قضیې چې د محافظه کارانو لخوا حواله شوي، لکه د فعال روبي سټاربک، هغه هغه ادعا کوي چې د جیما لخوا په غلطه توګه له جدي جرمونو او افراطیت سره تړاو لري.. En este contexto, د ممکنه تعصبونو په اړه بحث بیا راپورته شوی دی په مصنوعي ذهانت سیسټمونو کې او د امنیتي چوکاټونو، څارنې، او د زیان په صورت کې د بیا رغونې لارو اړتیا.

د ګوندي دریځونو هاخوا، قضیه دا په ګوته کوي چې ماډلونه د عامه تعامل لپاره ډیزاین شوي ندي کیدی شي د عمومي مرستیالانو په توګه غلط پوهیدلد پراختیایي پروټوټایپونو او عامو خلکو لپاره د محصولاتو ترمنځ کرښه تته کول، د څرګند خطرونو سره که هغه څه چې رامینځته کیږي د تایید شوي معلوماتو په توګه واخیستل شي.

د AI سټوډیو څخه د جیما وتل او د API نښه ته د هغې محدودیت د ماډل کارولو هڅه هغه ساحې ته واړوئ چې د هغې لپاره تصور شوی و، پداسې حال کې چې د دې په اړه پوښتنې راپورته کوي د صداقت، خوندیتوب او حساب ورکولو معیارونه دا باید هغه وخت اداره شي کله چې مصنوعي ذهانت د اصلي خلکو، په ځانګړې توګه د عامه چارواکو شهرت اغیزمنوي.