کیا AI بہتر کام کرتا ہے جب آپ اس سے مضبوطی اور دھمکیوں کے ساتھ بات کرتے ہیں؟ سرگئی برن ایسا سوچتے ہیں۔

آخری تازہ کاری: 28/05/2025

  • سرگئی برن تجویز کرتے ہیں کہ اے آئی ماڈلز مضبوط یا حتیٰ کہ دھمکی آمیز ہدایات کا بہتر جواب دیتے ہیں۔
  • اس رجحان کو ماڈل ٹریننگ کے دوران سیکھے گئے شماریاتی نمونوں سے منسوب کیا جاتا ہے۔
  • ماہرین اور صنعت کے اعداد و شمار واضح اہداف طے کرنے اور AI ردعمل کو بہتر بنانے کے لیے سیاق و سباق کو شامل کرنے کی تجویز کرتے ہیں۔
  • اس حکمت عملی پر بحث انسانوں اور ذہین نظاموں کے درمیان تعلق کے بارے میں نئے سوالات کو جنم دیتی ہے۔
سرگئی برن نے IA-0 کو دھمکی دی۔

مصنوعی ذہانت موجودہ تکنیکی اور سماجی منظر نامے کا غیر متنازعہ مرکزی کردار بن چکی ہے۔ تاہم، ان نظاموں کے ساتھ تعامل کے بہترین طریقے متنازعہ رہتے ہیں۔ کی طرف سے ایک حالیہ تبصرہ سرگئی برن، گوگل کے شریک بانی، نے ایک بار پھر ایک موضوع کو اتنا ہی دلچسپ بنایا ہے جتنا کہ یہ متنازعہ ہے: کیا AI ماڈل اصل میں بہتر کارکردگی کا مظاہرہ کرتے ہیں جب انہیں موصول ہونے والی ہدایات میں 'خطرات' کا پتہ چلتا ہے؟

دوستانہ فارمولوں سے بہت دور جن کے ساتھ بہت سے صارفین ڈیجیٹل معاونین کو مخاطب کرتے ہیں، برن نے مشورہ دیا ہے کہ براہ راست، مضبوط، یا یہاں تک کہ لازمی لہجہ AI کو مزید مکمل جوابات پیش کرنے کی ترغیب دے گا۔. اس غیر متوقع انکشاف نے کمیونٹی میں حیرانی، ستم ظریفی اور تشویش سے لے کر ردعمل کی لہر کو جنم دیا ہے۔

برن کے مطابق، جس طرح سسٹمز کو تربیت دی گئی ہے اس میں کلیدی مضمر ہے۔: لاکھوں متن اور گفتگو کے ساتھ جس میں لطیف درخواستوں سے لے کر دو ٹوک ہدایات تک سب کچھ شامل ہے۔ شماریاتی تجزیہ سے پتہ چلتا ہے کہ فوری لہجے میں حکم دیتا ہے۔ وہ عام طور پر زیادہ اہمیت کے کاموں سے منسلک ہوتے ہیں۔، اس طرح مصنوعی ذہانت سے زیادہ درست ردعمل کی حوصلہ افزائی کرتا ہے۔

خصوصی مواد - یہاں کلک کریں۔  انسٹاگرام پر تبصرے کیسے کاپی کریں۔

AI مضبوطی کا بہتر جواب کیوں دیتا ہے؟

مصنوعی ذہانت میں دھمکی آمیز لہجہ

برن کا استدلال ہے کہ یہ لفظی طور پر 'خطرہ دینے والے' نظام کا سوال نہیں ہے، بلکہ اس کا سوال ہے۔ ہدایات کیسے تیار کی جاتی ہیں۔. جب صارف "ابھی کرو" یا "براہ راست جواب دیتا ہے" جیسے جملے استعمال کرتا ہے تو ماڈل اس مسئلے کی ترجیح کے طور پر تشریح کرتا ہے۔ اس کا مطلب یہ نہیں ہے کہ AI جذبات رکھتا ہے یا خوفزدہ محسوس کرتا ہے، لیکن یہ اس زبان کے پیٹرن کو تفصیلی اور مفید معلومات فراہم کرنے کی ضرورت سے جوڑتا ہے۔.

برن کے نقطہ نظر کے علاوہ، مصنوعی ذہانت کے شعبے کے دیگر ماہرین ہدایات کو لکھنے کے طریقے کو ایڈجسٹ کرنے کی سفارش کرتے ہیں۔ بہترین نتائج کے لیے۔ مثال کے طور پر، OpenAI کے ایک ایگزیکٹیو گریگ بروک مین، پرامپٹ کے مقصد کو واضح طور پر بیان کرنے، رسپانس فارمیٹ کی وضاحت کرنے، متعلقہ حدود یا پابندیوں کا تعین کرنے، اور زیادہ سے زیادہ سیاق و سباق فراہم کرنے کا مشورہ دیتے ہیں۔

ان حکمت عملیوں کا خلاصہ یہ بتاتا ہے کہ AI ماڈلز کے ساتھ بات چیت میں شائستگی سے کہیں زیادہ شامل ہے: آرڈرز کا لہجہ اور درستگی فرق کر سکتی ہے۔ سطحی ردعمل اور واقعی ایک مؤثر حل کے درمیان۔

متعلقہ آرٹیکل:
گوگل نے Gmail میں AI سے بہتر سرچ متعارف کرایا ہے۔

AI کے ساتھ تعامل میں انسانی عنصر اور تعلیم

مصنوعی ذہانت کے ساتھ انسانی تعامل

مضبوط ٹونز استعمال کرنے کی سفارشات کے باوجود، روزمرہ کی حقیقت یہ ظاہر کرتی ہے۔ زیادہ تر لوگ جو AI کے ساتھ تعامل کرتے ہیں وہ شائستگی کا انتخاب کرتے ہیں۔"براہ کرم" چیزوں کے بارے میں پوچھنا اور سسٹمز کا شکریہ ادا کرنا۔ اس رویے کی وضاحت انسانی رجحان سے کی جا سکتی ہے۔ anthropomorphize ٹیکنالوجی یا، جیسا کہ کچھ مطالعات بتاتے ہیں، مستقبل کے ایک خاص خوف کی وجہ سے جو ان کی اپنی یادوں کے ساتھ مصنوعی ذہانت کا غلبہ ہے۔

خصوصی مواد - یہاں کلک کریں۔  کی بورڈ کے ساتھ کمپیوٹر کو دوبارہ شروع کرنے کا طریقہ

تاہم، موجودہ نظام، خاص طور پر جدید ترین، ہمیشہ ایک مقصد اور متوازن لہجے کو برقرار رکھنے کے لیے پروگرام کیے گئے ہیں، چاہے صارف زبانی دباؤ میں اضافہ کرے۔ گوگل کے ماڈلز میں سے ایک جیمنی جیسی مثالیں اس بات پر روشنی ڈالتی ہیں کہ جب وہ دھمکی آمیز لہجے کو تسلیم کرتے ہیں، تب بھی ان کا ردعمل غیر جانبداری اور معقولیت پر سمجھوتہ کیے بغیر رہتا ہے۔

انسانی فطرت اور AI ڈیزائن کے درمیان یہ تصادم اس بارے میں نئے سوالات کو جنم دیتا ہے کہ صارفین اور ذہین نظاموں کے درمیان تعلقات کیسے تیار ہوں گے۔ ایک طرف، ایسا لگتا ہے کہ مضبوط زبان نتائج کو بہتر کرتی ہے۔; دوسری طرف، ڈویلپرز ممکنہ زبانی بدسلوکی کے خلاف غیر جانبداری اور حفاظتی الگورتھم کو مضبوط بنانے پر اصرار کرتے ہیں۔

برن کی طرف سے شروع کی گئی بحث اخلاقی اور تکنیکی سوالات کو جنم دیتی ہے جنہیں نظر انداز کرنا مشکل ہے۔ بعض صورتوں میں، دیگر کمپنیوں کے تیار کردہ ماڈل جیسے اینتھروپک انتہائی یا دباؤ والے تعامل کے انداز کے سامنے آنے پر غیر متوقع طرز عمل کا مظاہرہ کیا ہے۔ ایسی اطلاعات ہیں کہ سسٹمز خود بخود ان استعمالوں سے بچنے کی کوشش کرتے ہیں جنہیں وہ "غیر اخلاقی" سمجھتے ہیں یا غیر متوقع طور پر جواب دیتے ہیں اگر وہ تعامل کو دشمنی سے تعبیر کرتے ہیں۔

خصوصی مواد - یہاں کلک کریں۔  فیس بک پر بولڈ کیسے بنایا جائے۔

ملازمین کی شہادتوں اور اندرونی جانچ کے مطابق، بعض جدید ماڈلز کو بلاک کیا جا سکتا ہے یا انسانی مینیجرز کو خبردار کیا جا سکتا ہے اگر وہ ممکنہ بدسلوکی یا نامناسب درخواستوں کی نشاندہی کرتے ہیں۔ اگرچہ یہ معاملات غیر معمولی ہیں اور ٹیسٹ کے ماحول میں پائے جاتے ہیں، لیکن وہ یہ واضح کرتے ہیں۔ نتائج کو بہتر بنانے اور دباؤ کے ذریعے AI کو مجبور کرنے کے درمیان لائن کو دھندلا دیا جا سکتا ہے۔.

جو بات واضح ہے وہ ہے انسانوں کا AI کے ساتھ تعامل کا طریقہ بدل رہا ہے۔. ماہرین کی سفارشات اور صنعتی شخصیات جیسے سرگئی برن کی تعریفوں نے AI سے بہتر ردعمل حاصل کرنے میں زبان اور دباؤ کے کردار کے بارے میں ایک بحث کو جنم دیا ہے۔ اس رشتے کا مستقبل زیادہ تر انحصار کرے گا کہ ماڈل کس طرح تیار ہوتے ہیں اور تاثیر اور ذمہ داری کے درمیان صحیح توازن تلاش کرنے کی اجتماعی صلاحیت پر۔

متعلقہ آرٹیکل:
ChatGPT میں پرفیکٹ پرامپٹ کیسے بنائیں: مکمل گائیڈ