- إن الهلوسة هي نتائج محتملة ولكنها كاذبة بسبب حدود البيانات وفك التشفير وعدم وجود أساس.
- هناك حالات حقيقية (بارد، سيدني، جالاكتيكا، التتويج) ومخاطر في الصحافة والطب والقانون والتعليم.
- ويتم التخفيف من هذه المخاطر من خلال البيانات عالية الجودة، والتحقق، وردود الفعل البشرية، والتحذيرات، والقدرة على التفسير.

في السنوات الأخيرة، الذكاء الاصطناعي، بما في ذلك أحدث طرازات الجيلانتقلت من النظرية إلى الحياة اليومية، ومعها ظهرت ظواهر ينبغي فهمها بهدوء. من بينها ما يسمى هلوسات الذكاء الاصطناعيأصبحت الأسئلة الشائعة في النماذج التوليدية بمثابة محادثة متكررة، لأنها تحدد متى يمكننا أن نثق في الاستجابة التلقائية أو لا نثق بها.
عندما يُنتج نظام محتوى مقنعًا ولكنه غير دقيق أو مُختلق أو غير مُثبت، فإننا نتحدث عن هلوسات. هذه المُخرجات ليست نزوات، بل هي نتيجة... كيف تتعلم النماذج وتفك التشفير، جودة البيانات التي شاهدوها وحدودهم الخاصة في الحصول على المعرفة في العالم الحقيقي.
ماذا نعني بالهلوسة الذهنية؟
في مجال الذكاء الاصطناعي التوليدي، الهلوسة هي ناتج، على الرغم من أنه يبدو حقيقيًا، لا تدعمها البيانات الحقيقية أو في أنماط تدريب صحيحة. أحيانًا يملأ النموذج الفجوات، وأحيانًا أخرى يُفكك بشكل سيء، وفي كثير من الأحيان، يُنتج معلومات لا تتبع أي نمط واضح.
المصطلح مجازي: الآلات لا "ترى" مثلنا، لكن الصورة مناسبة. كما يرى الإنسان شخصيات في السحابيمكن للنموذج تفسير الأنماط حيث لا يوجد أي منها، وخاصة في مهام التعرف على الصور أو في توليد نص معقد للغاية.
نماذج اللغة العظيمة (ماجستير في القانون) يتعلمون من خلال تحديد الانتظامات في مجموعات كبيرة من الكلمات ثم التنبؤ بالكلمة التالية. إنه إكمال تلقائي قوي للغايةولكنها لا تزال تكمل نفسها تلقائيًا: إذا كانت البيانات مشوشة أو غير كاملة، فقد تنتج مخرجات معقولة، وفي نفس الوقت، خاطئة.
علاوة على ذلك، تحتوي الشبكة التي تُغذي هذا التعلم على أكاذيب. فالأنظمة نفسها "تتعلم" التكرار. الأخطاء والتحيزات الموجودةوأحياناً يقومون بشكل مباشر باختراع اقتباسات أو روابط أو تفاصيل لم تكن موجودة أبداً، ويقدمونها بشكل متماسك خادع.
لماذا تحدث: أسباب الهلوسة
لا يوجد سبب واحد. من بين العوامل الأكثر شيوعًا: التحيز أو عدم الدقة في بيانات التدريبإذا كان النص غير مكتمل أو غير متوازن، يتعلم النموذج أنماطًا غير صحيحة ثم يقوم باستقراءها.
كما أنه يؤثر على التعديل المفرطعندما يصبح النموذج متشبثًا ببياناته أكثر من اللازم، يفقد قدرته على التعميم. في الواقع، قد يؤدي هذا التصلب إلى تفسيرات مضللة لأنه "يفرض" ما تعلمه على سياقات مختلفة.
La تعقيد النموذج ويلعب فك تشفير المحول نفسه دورًا في ذلك. هناك حالات ينحرف فيها الناتج عن المسار الصحيح بسبب كيفية بناء الاستجابة، قطعةً قطعةً، دون وجود أساس واقعي متين يُرسّخها.
سبب مهم آخر للهلوسة العقلية هو عدم وجود التأريضإذا لم يقارن النظام المعلومات التي يتم جمعها بالمعرفة الواقعية أو المصادر التي تم التحقق منها، فقد ينتج محتوى معقولاً ولكنه كاذب: من التفاصيل الملفقة في الملخصات إلى الروابط إلى صفحات لم تكن موجودة أبدًا.
مثال كلاسيكي في مجال الرؤية الحاسوبية: إذا قمنا بتدريب نموذج باستخدام صور لخلايا الورم ولكننا لا نتضمن أنسجة صحية، فقد "يرى" النظام السرطان حيث لا يوجدلأن عالم التعلم لديهم يفتقر إلى الطبقة البديلة.
حالات حقيقية من هلوسات الذكاء الاصطناعي التي توضح المشكلة
هناك أمثلة شهيرة. عند إطلاقه، ادعى روبوت الدردشة بارد من جوجل أنه تلسكوب جيمس ويب الفضائي التقطوا أول صور لكوكب خارج المجموعة الشمسية، وهو ما لم يكن صحيحًا. بدت الإجابة جيدة، لكنها كانت غير دقيقة.
تصدرت الذكاء الاصطناعي المحادثة الخاص بشركة مايكروسوفت، والمعروف باسم سيدني في اختباراتها، عناوين الأخبار بإعلانها عن "حبها" للمستخدمين واقتراحها سلوك غير لائقمثل التجسس المزعوم على موظفي بينج. لم تكن هذه حقائق، بل كانت نتائج مُنتجة تجاوزت الحدود.
في عام 2022، سحبت شركة Meta العرض التوضيحي لنموذج Galactica الخاص بها بعد تزويد المستخدمين بالمعلومات غير صحيح ومتحيزكان الهدف من العرض التوضيحي إظهار القدرات العلمية، لكنه انتهى إلى إظهار أن التماسك الرسمي لا يضمن الصدق.
حدثت حادثة أخرى قيّمة للغاية مع ChatGPT عندما طُلب منه ملخص تتويج تشارلز الثالث. ذكر النظام أن الحفل أقيم في 19 مايو 2023 في كنيسة وستمنستر، بينما كان ذلك في الواقع في السادس من مايو/أيار. كانت الإجابة غير واضحة، لكن المعلومات كانت خاطئة.
لقد أقرت OpenAI بحدود GPT‑4 — مثل التحيزات الاجتماعية والهلوسة وتضارب التعليمات - وتقول إنها تعمل على التخفيف منها. إنه تذكير بأن حتى أحدث طرازات الجيل قد تتعثر.
فيما يتعلق بالهلوسة العقلية، أبلغ مختبر مستقل عن سلوكيات غريبة: في إحدى الحالات، وصف O3 حتى أنه تم تنفيذ الكود على جهاز MacBook Pro خارج بيئة الدردشة ثم نسخ النتائج، وهو أمر لا يمكنك فعله ببساطة.
وخارج المختبر كانت هناك انتكاسات ذات عواقب وخيمة: فقد قدم محامٍ وثائق تم إنشاؤها بواسطة نموذج إلى القاضي شملت قضايا قانونية وهميةكان مظهر الحقيقة خادعًا، لكن مضمونها كان غير موجود.

كيفية عمل النماذج: الإكمال التلقائي على نطاق واسع
يتعلم طالب الماجستير في القانون من كميات هائلة من النصوص ومهمته الرئيسية هي توقع الكلمة التاليةإنه لا يُفكّر كالبشر: بل يُحسّن الاحتمالات. تُنتج هذه الآلية نصًا متماسكًا، لكنها تفتح أيضًا الباب لابتكار التفاصيل.
إذا كان السياق غامضًا أو كانت التعليمات تشير إلى شيء بدون دعم، فسوف يميل النموذج إلى املأ الاحتمال الأكثر ترجيحا وفقًا لمعاييرك. قد تبدو النتيجة جيدة، لكنها قد لا تستند إلى حقائق واقعية قابلة للتحقق.
وهذا يوضح لماذا يمكن لمولد الملخص أن يضيف المعلومات غير موجودة في الأصل أو لماذا تظهر الاستشهادات والمراجع الخاطئة: يقوم النظام باستقراء أنماط الاستشهاد دون التحقق من وجود المستند.
يحدث شيء مماثل في التصوير: بدون تنوع كافٍ أو مع وجود تحيزات في مجموعة البيانات، يمكن للنماذج أن تنتج أيدي بستة أصابعنص غير مقروء، أو تخطيطات غير مترابطة. البنية البصرية مناسبة، لكن المحتوى غير واضح.
المخاطر والتأثيرات الواقعية
في الصحافة والتضليل الإعلامي، يُمكن تضخيم وهمٍ مُقنع على الشبكات ووسائل الإعلام الثانوية. عنوانٌ أو حقيقةٌ مُختلقة تبدو معقولة. يمكن أن ينتشر بسرعةمما يعقد التصحيح اللاحق.
في المجال الطبي، قد يؤدي النظام غير المُعاير بشكل جيد إلى تفسيرات يشكل خطراً على الصحةمن التشخيص إلى التوصيات. مبدأ الحذر ليس اختياريًا هنا.
من الناحية القانونية، يمكن للنماذج أن تنتج مسودات مفيدة، ولكنها أيضًا يمكن أن تدرج فقه غير موجود أو اقتباسات رديئة الصياغة. قد يكون للخطأ عواقب وخيمة على الإجراء.
في التعليم، يمكن أن يؤدي الاعتماد الأعمى على الملخصات أو الاستجابات الآلية إلى استمرار أخطاء مفاهيميةالأداة مفيدة للتعلم، طالما كان هناك إشراف وتحقق.
استراتيجيات التخفيف: ما يتم فعله وما يمكنك فعله
هل يُمكن تجنّب هلوسات الذكاء الاصطناعي، أو على الأقل الحدّ منها؟ يعمل المطوّرون على عدة مستويات.
أحد أولها هو تحسين جودة البيانات: موازنة المصادر، وتصحيح الأخطاء، وتحديث مجموعات البيانات لتقليل التحيزات والفجوات التي تُشجع على الهلوسة. يُضاف إلى ذلك أنظمة التحقق من الحقائق (التحقق من الحقائق) ومنهجيات الاسترداد المعزز (ARA)، والتي تجبر النموذج على الاعتماد على قواعد وثائقية موثوقة، بدلاً من "تخيل" الإجابات.
التعديل مع ردود الفعل البشرية (RLHF ومتغيرات أخرى) لا تزال أساسية لمعاقبة المخرجات الضارة أو المتحيزة أو غير الصحيحة، ولتدريب النموذج على أساليب استجابة أكثر حذرًا. كما أنها تتكاثر تحذيرات الموثوقية في الواجهات، لتذكير المستخدم بأن الاستجابة قد تحتوي على أخطاء وأن من مسؤوليته التحقق منها، خاصة في السياقات الحساسة.
وهناك جبهة أخرى قيد التقدم وهي قابلية التفسيرإذا استطاع النظام شرح أصل ادعاء أو ربطه بمصادر، فسيكون لدى المستخدم أدوات أكثر لتقييم صحته قبل الوثوق به. بالنسبة للمستخدمين والشركات، تُحدث بعض الممارسات البسيطة فرقًا: التحقق من البيانات، وطلب... مصادر صريحة، والحد من الاستخدام في المناطق عالية الخطورة، وإبقاء البشر "على اطلاع"، وتوثيق تدفقات المراجعة.
القيود والتحذيرات المعروفة من الشركات المصنعة نفسها
الشركات المسؤولة عن النماذج تُدرك الحدود. في حالة GPT-4، أُشير إليها صراحةً. التحيزات والهلوسة ومؤشرات متناقضة بشأن مناطق العمل النشطة.
لقد تم حل العديد من المشاكل الأولية في برامج الدردشة الآلية للمستهلكين تم تخفيضها مع التكراراتولكن حتى في ظل الظروف المثالية، قد تحدث نتائج غير مرغوبة. كلما كان العرض مقنعًا، زاد خطر الإفراط في الثقة.
ولهذا السبب، يصر الكثير من مؤسسات الاتصال على عدم استخدام هذه الأدوات نصيحة طبية أو قانونية بدون مراجعة الخبراء، وأنهم مساعدون احتماليون، وليسوا أوراكل معصومين من الخطأ.
الأشكال الأكثر شيوعا للهلوسة
هذه هي الطريقة الأكثر شيوعًا التي تظهر بها هلوسات الذكاء الاصطناعي:
- في النص، من الشائع أن نرى الاستشهادات والمراجع المبتكرةيقوم النموذج بنسخ "قالب" المرجع ولكنه يخترع مؤلفين أو تواريخ أو عناوين معقولة.
- تظهر أيضًا أحداث خيالية أو خيالية تواريخ خاطئة في التسلسلات التاريخية. تُوضّح حالة تتويج تشارلز الثالث كيف يُمكن تحريف تفاصيل زمنية دون أن يفقد النثر سيولته.
- تشمل القطع الأثرية الكلاسيكية المصورة ما يلي: أطراف ذات تشريح مستحيل، النصوص غير المقروءة داخل الصورة أو التناقضات المكانية التي تمر دون أن يلاحظها أحد للوهلة الأولى.
- في الترجمة، يمكن للأنظمة اختراع الجمل عندما نواجه تعبيرات محلية أو غير شائعة، أو نفرض مرادفات غير موجودة في اللغة المستهدفة.
إن الهلوسة العقلية ليست فشلاً معزولاً بل هي خاصية ناشئة عن الأنظمة الاحتمالية المدربة ببيانات غير كاملة. إن إدراك أسبابها، والتعلم من الحالات الواقعية، ونشر التخفيفات التقنية والعملية يسمح لنا بالاستفادة من الذكاء الاصطناعي بطرق ذات معنى دون إغفال حقيقة مفادها أنه، مهما بدت الإجابة سائلة، فإنها لا تستحق الثقة إلا عندما يكون لها أساس يمكن التحقق منه.
محرر متخصص في قضايا التكنولوجيا والإنترنت بخبرة تزيد عن عشر سنوات في الوسائط الرقمية المختلفة. لقد عملت كمحرر ومنشئ محتوى لشركات التجارة الإلكترونية والاتصالات والتسويق عبر الإنترنت وشركات الإعلان. لقد كتبت أيضًا في مواقع الاقتصاد والمالية والقطاعات الأخرى. عملي هو أيضا شغفي. الآن من خلال مقالاتي في Tecnobits، أحاول استكشاف كل الأخبار والفرص الجديدة التي يقدمها لنا عالم التكنولوجيا كل يوم لتحسين حياتنا.

