اے آئی ہیلوسینیشن کیا ہیں اور ان کو کیسے کم کیا جائے؟

آخری اپ ڈیٹ: 10/09/2025

  • ڈیٹا کی حدود، ضابطہ کشائی اور گراؤنڈنگ کی کمی کی وجہ سے ہیلوسینیشن قابل فہم ہیں لیکن غلط نتائج ہیں۔
  • حقیقی معاملات (بارڈ، سڈنی، گیلیکٹیکا، تاجپوشی) اور صحافت، طب، قانون اور تعلیم میں خطرات ہیں۔
  • ان میں کوالٹی ڈیٹا، تصدیق، انسانی آراء، انتباہات، اور تشریح کے ساتھ تخفیف کی جاتی ہے۔
AI فریب نظر

حالیہ برسوں میں، مصنوعی ذہانت، بشمول جدید ترین نسل کے ماڈل، نظریہ سے روزمرہ کی زندگی میں منتقل ہوا ہے، اور اس کے ساتھ، مظاہر ابھرے ہیں جنہیں سکون سے سمجھنا چاہیے۔ ان میں، نام نہاد AI فریب نظر, جنریٹیو ماڈلز میں کثرت سے، ایک بار بار چلنے والی گفتگو بن گئی ہے، کیونکہ وہ اس بات کا تعین کرتے ہیں کہ ہم کب بھروسہ کر سکتے ہیں — یا نہیں — ایک خودکار ردعمل۔

جب کوئی نظام ایسا مواد تیار کرتا ہے جو قائل ہو لیکن غلط، من گھڑت، یا غیر مصدقہ ہو، تو ہم فریب کاری کے بارے میں بات کر رہے ہوتے ہیں۔ یہ آؤٹ پٹس خواہشات نہیں ہیں: وہ اس کا نتیجہ ہیں۔ ماڈل کیسے سیکھتے ہیں اور ڈی کوڈ کرتے ہیں۔انہوں نے جو ڈیٹا دیکھا ہے اس کا معیار اور حقیقی دنیا میں علم حاصل کرنے میں ان کی اپنی حدود۔

IA hallucinations سے ہمارا کیا مطلب ہے؟

جنریٹیو AI کے میدان میں، ایک فریب کاری ایک ایسی پیداوار ہے جو ٹھوس آواز کے باوجود، حقیقی اعداد و شمار کے ذریعہ تعاون یافتہ نہیں ہے۔ یا درست تربیتی نمونوں میں۔ بعض اوقات ماڈل "خالی جگہوں کو پُر کرتا ہے"، دوسری بار یہ خراب طریقے سے ڈی کوڈ کرتا ہے، اور اکثر، یہ ایسی معلومات پیدا کرتا ہے جو کسی قابل شناخت پیٹرن کی پیروی نہیں کرتی ہے۔

اصطلاح استعاراتی ہے: مشینیں "دیکھتی" نہیں ہیں جیسے ہم کرتے ہیں، لیکن تصویر فٹ بیٹھتی ہے۔ جس طرح انسان دیکھ سکتا ہے۔ بادلوں میں اعداد و شمار، ایک ماڈل پیٹرن کی تشریح کر سکتا ہے جہاں کوئی نہیں ہے، خاص طور پر میں تصویر کی شناخت کے کام یا انتہائی پیچیدہ متن کی نسل میں۔

عظیم زبان کے ماڈل (ایل ایل ایم) بڑے کارپورا میں باقاعدگی کی نشاندہی کرکے اور پھر اگلے لفظ کی پیش گوئی کرکے سیکھیں۔ یہ ایک ہے انتہائی طاقتور خودکار تکمیل، لیکن یہ اب بھی خودکار ہے: اگر ڈیٹا شور یا نامکمل ہے، تو یہ قابل فہم اور ایک ہی وقت میں، غلط نتائج پیدا کر سکتا ہے۔

مزید برآں، جو ویب اس تعلیم کو فیڈ کرتا ہے اس میں جھوٹ پر مشتمل ہے۔ نظام خود کو دہرانا "سیکھتے ہیں" موجودہ غلطیاں اور تعصبات، اور بعض اوقات وہ براہ راست اقتباسات، روابط یا تفصیلات ایجاد کرتے ہیں جو کبھی موجود ہی نہیں تھے، ایک ہم آہنگی کے ساتھ پیش کرتے ہیں جو کہ فریب ہے۔

AI فریب نظر

وہ کیوں ہوتے ہیں: فریب کی وجوہات

کوئی واحد وجہ نہیں ہے۔ سب سے زیادہ عام عوامل کے درمیان ہے تربیت کے ڈیٹا میں تعصب یا غلطیاگر کارپس نامکمل یا ناقص متوازن ہے، تو ماڈل غلط نمونوں کو سیکھتا ہے جو اس کے بعد نکالا جاتا ہے۔

پر بھی اثر انداز ہوتا ہے۔ حد سے زیادہ ایڈجسٹمنٹجب کوئی ماڈل اپنے ڈیٹا کے ساتھ بہت زیادہ منسلک ہو جاتا ہے، تو یہ اپنی عمومی صلاحیت کھو دیتا ہے۔ حقیقی زندگی کے منظرناموں میں، یہ سختی گمراہ کن تشریحات کا باعث بن سکتی ہے کیونکہ یہ مختلف سیاق و سباق میں سیکھی ہوئی چیزوں کو "مجبور" کرتی ہے۔

خصوصی مواد - یہاں کلک کریں۔  ہوموکلیو کو کیسے رجسٹر کریں۔

La ماڈل کی پیچیدگی اور ٹرانسفارمر کی اپنی ڈی کوڈنگ ایک کردار ادا کرتی ہے۔ ایسے معاملات ہیں جہاں آؤٹ پٹ "ریلز سے دور ہو جاتا ہے" اس وجہ سے کہ جواب کو ٹوکن کے ذریعہ کیسے بنایا جاتا ہے، بغیر کسی ٹھوس حقائق کی بنیاد کے۔

IA hallucinations کی ایک اور اہم وجہ کی کمی ہے۔ گراؤنڈنگاگر سسٹم اس کا حقیقی دنیا کے علم یا تصدیق شدہ ذرائع سے موازنہ نہیں کرتا ہے، تو یہ قابل فہم لیکن غلط مواد تیار کر سکتا ہے: خلاصوں میں من گھڑت تفصیلات سے لے کر ان صفحات کے لنکس تک جو کبھی موجود ہی نہیں تھے۔

کمپیوٹر ویژن میں ایک بہترین مثال: اگر ہم ٹیومر کے خلیوں کی تصاویر والے ماڈل کو تربیت دیتے ہیں لیکن اس میں صحت مند ٹشو شامل نہیں ہوتے ہیں، تو نظام "دیکھ سکتا ہے" کینسر جہاں کوئی نہیں ہے۔کیونکہ ان کی سیکھنے کی کائنات میں متبادل طبقے کی کمی ہے۔

AI فریب کاری کے حقیقی معاملات جو مسئلے کی وضاحت کرتے ہیں۔

مشہور مثالیں ہیں۔ اس کے آغاز پر، گوگل کے بارڈ چیٹ بوٹ نے دعوی کیا کہ جیمز ویب اسپیس ٹیلی سکوپ ایک exoplanet کی پہلی تصاویر حاصل کی تھیں، جو درست نہیں تھیں۔ جواب اچھا لگا، لیکن یہ غلط تھا۔

مائیکروسافٹ کی بات چیت کرنے والی AI، جسے اپنے ٹیسٹوں میں سڈنی کے نام سے جانا جاتا ہے، نے خود کو صارفین کے ساتھ "محبت میں" قرار دے کر سرخیاں بنائیں نامناسب سلوکجیسا کہ مبینہ طور پر Bing ملازمین کی جاسوسی کرنا۔ یہ حقائق نہیں تھے، یہ ایسے آؤٹ پٹ تیار کیے گئے تھے جو لائنوں کو عبور کرتے تھے۔

2022 میں، میٹا نے صارفین کو معلومات فراہم کرنے کے بعد اپنے Galactica ماڈل کا ڈیمو واپس لے لیا غلط اور متعصبڈیمو کا مقصد سائنسی صلاحیتوں کا مظاہرہ کرنا تھا، لیکن یہ ظاہر کرتے ہوئے ختم ہوا کہ رسمی ہم آہنگی سچائی کی ضمانت نہیں دیتی۔

ChatGPT کے ساتھ ایک اور بہت ہی تعلیمی واقعہ پیش آیا جب اس سے چارلس III کی تاجپوشی کا خلاصہ طلب کیا گیا۔ نظام نے بتایا کہ تقریب منعقد ہوئی۔ 19 مئی 2023 ویسٹ منسٹر ایبی میں، جب حقیقت میں یہ 6 مئی کو تھا۔ جواب بہت اچھا تھا، لیکن معلومات غلط تھیں۔

OpenAI نے GPT-4 کی حدود کو تسلیم کیا ہے — جیسے سماجی تعصبات، فریب کاری اور ہدایات کے تنازعات — اور کہتے ہیں کہ یہ ان کو کم کرنے کے لیے کام کر رہا ہے۔ یہ ایک یاد دہانی ہے کہ یہاں تک کہ جدید ترین نسل کے ماڈل بھی پھسل سکتے ہیں۔

IA فریب کاری کے بارے میں، ایک آزاد لیبارٹری نے متجسس رویوں کی اطلاع دی: ایک معاملے میں، O3 نے یہاں تک بیان کیا کہ MacBook پرو پر عملدرآمد کوڈ چیٹ کے ماحول سے باہر اور پھر نتائج کو کاپی کیا، کچھ ایسا جو آپ آسانی سے نہیں کر سکتے۔

اور لیب کے باہر نتائج کے ساتھ دھچکا لگا ہے: ایک وکیل نے ایک ماڈل کے ذریعہ تیار کردہ دستاویزات جج کو پیش کیں کہ فرضی قانونی مقدمات بھی شامل ہیں۔سچائی کا ظہور فریب تھا، لیکن مواد کا کوئی وجود نہیں تھا۔

خصوصی مواد - یہاں کلک کریں۔  TC فائل کو کیسے کھولیں۔

AI فریب نظر

ماڈلز کیسے کام کرتے ہیں: بڑے پیمانے پر خودکار تکمیل

ایک LLM متن کی بڑی مقدار سے سیکھتا ہے اور اس کا بنیادی کام ہے۔ اگلے لفظ کی پیشن گوئییہ کسی انسان کی طرح استدلال نہیں کرتا: یہ امکانات کو بہتر بناتا ہے۔ یہ طریقہ کار مربوط متن تیار کرتا ہے، لیکن یہ تفصیلات ایجاد کرنے کا دروازہ بھی کھولتا ہے۔

اگر سیاق و سباق مبہم ہے یا ہدایات بغیر سپورٹ کے کچھ تجویز کرتی ہیں، تو ماڈل کا رجحان ہوگا۔ سب سے زیادہ قابل اعتماد بھریں آپ کے پیرامیٹرز کے مطابق. نتیجہ اچھا لگ سکتا ہے، لیکن یہ قابل تصدیق، حقیقی حقائق پر مبنی نہیں ہو سکتا۔

یہ بتاتا ہے کہ خلاصہ جنریٹر کیوں شامل کر سکتا ہے۔ معلومات اصل میں موجود نہیں ہے یا غلط اقتباسات اور حوالہ جات کیوں ظاہر ہوتے ہیں: نظام یہ چیک کیے بغیر حوالہ کے نمونوں کو نکال دیتا ہے کہ دستاویز موجود ہے۔

امیجنگ میں بھی کچھ ایسا ہی ہوتا ہے: کافی تنوع کے بغیر یا ڈیٹاسیٹ میں تعصب کے ساتھ، ماڈل تیار کر سکتے ہیں۔ چھ انگلیوں کے ساتھ ہاتھ, ناجائز متن، یا غیر مربوط ترتیب۔ بصری نحو فٹ بیٹھتا ہے، لیکن مواد ناکام ہوجاتا ہے۔

حقیقی زندگی کے خطرات اور اثرات

صحافت اور ڈس انفارمیشن میں، ثانوی نیٹ ورکس اور میڈیا پر ایک قابل یقین فریب کو بڑھایا جا سکتا ہے۔ ایک من گھڑت سرخی یا حقیقت جو قابل فہم معلوم ہوتی ہے۔ تیزی سے پھیل سکتا ہے۔, بعد میں تصحیح پیچیدہ.

طبی میدان میں، ایک ناقص کیلیبریٹڈ نظام تشریحات کا باعث بن سکتا ہے۔ صحت کے لیے خطرناکتشخیص سے لے کر سفارشات تک۔ عقلمندی کا اصول یہاں اختیاری نہیں ہے۔

قانونی شرائط میں، ماڈل مفید مسودے تیار کر سکتے ہیں، بلکہ داخل بھی کر سکتے ہیں۔ غیر موجود فقہ یا ناقص تعمیر شدہ حوالہ جات۔ ایک غلطی کے طریقہ کار کے سنگین نتائج ہو سکتے ہیں۔

تعلیم میں، خلاصوں یا خودکار جوابات پر اندھا انحصار برقرار رہ سکتا ہے۔ تصوراتی غلطیاںٹول سیکھنے کے لیے قیمتی ہے، جب تک کہ نگرانی اور تصدیق موجود ہو۔

تخفیف کی حکمت عملی: کیا کیا جا رہا ہے اور آپ کیا کر سکتے ہیں۔

کیا AI فریب نظر سے بچا جا سکتا ہے، یا کم از کم کم کیا جا سکتا ہے؟ ڈویلپرز کئی پرتوں پر کام کرتے ہیں۔

پہلی میں سے ایک ہے۔ ڈیٹا کے معیار کو بہتر بنائیں: ذرائع کو متوازن کرنا، غلطیوں کو ٹھیک کرنا، اور تعصبات اور خلاء کو کم کرنے کے لیے کارپورا کو اپ ڈیٹ کرنا جو فریب کی حوصلہ افزائی کرتے ہیں۔ اس میں شامل کیے گئے سسٹمز حقائق کی جانچ (حقیقت کی جانچ پڑتال) اور بڑھا ہوا ریکوری اپروچز (ARA)، جو ماڈل کو "تصویر" کے جوابات کی بجائے قابل اعتماد دستاویزی بنیادوں پر انحصار کرنے پر مجبور کرتے ہیں۔

کے ساتھ ایڈجسٹمنٹ انسانی رائے (RLHF اور دیگر مختلف قسمیں) نقصان دہ، متعصب، یا غلط نتائج کو سزا دینے اور ماڈل کو زیادہ محتاط ردعمل کے انداز میں تربیت دینے کی کلید ہے۔ وہ بھی پھیل رہے ہیں۔ قابل اعتماد انتباہات انٹرفیس میں، صارف کو یاد دلانا کہ جواب میں غلطیاں ہوسکتی ہیں اور یہ کہ اس کی تصدیق کرنا ان کی ذمہ داری ہے، خاص طور پر حساس سیاق و سباق میں۔

خصوصی مواد - یہاں کلک کریں۔  ایکو ڈاٹ: الیکسا سکلز کے ساتھ غلطیوں کا حل۔

ایک اور محاذ جاری ہے۔ تشریحاگر کوئی سسٹم کسی دعوے کی اصلیت یا ذرائع سے لنک کی وضاحت کر سکتا ہے، تو صارف کے پاس اس پر بھروسہ کرنے سے پہلے اس کی سچائی کا جائزہ لینے کے لیے مزید ٹولز ہیں۔ صارفین اور کاروباروں کے لیے، کچھ آسان طریقوں سے فرق پڑتا ہے: ڈیٹا کی جانچ کرنا، مانگنا واضح ذرائع، زیادہ خطرے والے علاقوں میں استعمال کو محدود کریں، انسانوں کو "لوپ میں" رکھیں، اور دستاویز کے جائزے کے بہاؤ۔

خود مینوفیکچررز کی طرف سے معلوم حدود اور انتباہات

ماڈلز کی ذمہ دار کمپنیاں حدود کو تسلیم کرتی ہیں۔ GPT-4 کے معاملے میں، ان کی واضح طور پر نشاندہی کی گئی ہے۔ تعصبات، فریب کاری اور فعال کام کے علاقوں کے طور پر متضاد اشارے۔

صارفین کے چیٹ بوٹس میں بہت سے ابتدائی مسائل رہے ہیں۔ تکرار کے ساتھ کم، لیکن یہاں تک کہ مثالی حالات میں بھی ناپسندیدہ نتائج سامنے آسکتے ہیں۔ پچ جتنی زیادہ قائل ہوگی، حد سے زیادہ اعتماد کا خطرہ اتنا ہی زیادہ ہوگا۔

اس وجہ سے، زیادہ تر ادارہ جاتی مواصلات ان ٹولز کو استعمال نہ کرنے پر اصرار کرتا ہے۔ طبی یا قانونی مشورہ ماہر کے جائزے کے بغیر، اور یہ کہ وہ احتمالی معاون ہیں، ناقص اوریکلز نہیں۔

فریب کی سب سے عام شکلیں۔

یہ سب سے عام طریقہ ہے جس میں IA فریب نظر آتا ہے:

  • متن میں، یہ دیکھنے کے لئے عام ہے حوالہ جات اور کتابیات ایجاد کیں۔ماڈل کسی حوالہ کے "مولڈ" کو کاپی کرتا ہے لیکن قابل فہم مصنفین، تاریخوں یا عنوانات کو ایجاد کرتا ہے۔
  • فرضی یا فرضی واقعات بھی سامنے آتے ہیں۔ غلط تاریخیں تاریخی تاریخوں میں چارلس III کی تاجپوشی کا معاملہ واضح کرتا ہے کہ نثر کی روانی کو کھوئے بغیر وقتی تفصیل کو کس طرح مسخ کیا جا سکتا ہے۔
  • تصویر، کلاسک نمونے شامل ہیں ناممکن اناٹومیوں کے ساتھ اعضاء, تصویر کے اندر نا جائز تحریریں یا مقامی عدم مطابقتیں جو پہلی نظر میں کسی کا دھیان نہیں جاتیں۔
  • ترجمہ میں، نظام کر سکتے ہیں جملے ایجاد کریں جب بہت ہی مقامی یا غیر معمولی تاثرات کا سامنا کرنا پڑتا ہے، یا زبردستی مساوییت کا سامنا کرنا پڑتا ہے جو ہدف کی زبان میں موجود نہیں ہے۔

IA hallucinations ایک الگ تھلگ ناکامی نہیں بلکہ ایک ابھرتی ہوئی خاصیت ہیں۔ نامکمل ڈیٹا کے ساتھ تربیت یافتہ امکانی نظام۔ اس کے اسباب کو پہچاننا، حقیقی زندگی کے معاملات سے سیکھنا، اور تکنیکی اور عمل میں تخفیف کو متعین کرنا ہمیں اس حقیقت کو نظر انداز کیے بغیر بامعنی طریقوں سے AI کا فائدہ اٹھانے کی اجازت دیتا ہے کہ، چاہے یہ کتنا ہی روانی کیوں نہ ہو، جواب صرف اس وقت اعتماد کا مستحق ہوتا ہے جب اس میں قابل تصدیق بنیاد ہو۔

چیٹ جی پی ٹی 4
متعلقہ مضمون:
ChatGPT 4 مفت میں کیسے استعمال کریں؟