- भ्रमहरू सम्भव छन् तर डेटा सीमा, डिकोडिङ र ग्राउन्डिङको अभावका कारण गलत आउटपुटहरू छन्।
- पत्रकारिता, चिकित्सा, कानून र शिक्षामा वास्तविक केसहरू (बार्ड, सिड्नी, ग्यालेक्टिका, राज्याभिषेक) र जोखिमहरू छन्।
- गुणस्तरीय डेटा, प्रमाणीकरण, मानव प्रतिक्रिया, चेतावनी, र व्याख्यात्मकता मार्फत तिनीहरूलाई कम गरिन्छ।

हालैका वर्षहरूमा, कृत्रिम बुद्धिमत्ता, सहित पछिल्लो पुस्ताका मोडेलहरू, सिद्धान्तबाट दैनिक जीवनमा सरेको छ, र यससँगै, घटनाहरू देखा परेका छन् जुन शान्तपूर्वक बुझ्नुपर्छ। ती मध्ये, तथाकथित IA भ्रमजेनेरेटिभ मोडेलहरूमा धेरै सामान्य, एक आवर्ती कुराकानी बनेको छ, किनभने तिनीहरूले निर्धारण गर्छन् कि हामी कहिले स्वचालित प्रतिक्रियामा विश्वास गर्न सक्छौं - वा गर्दैनौं।
जब कुनै प्रणालीले त्यस्तो सामग्री उत्पन्न गर्छ जुन विश्वस्त पार्ने तर गलत, बनावटी, वा अप्रमाणित हुन्छ, हामी भ्रमको बारेमा कुरा गरिरहेका हुन्छौं। यी आउटपुटहरू सनकी होइनन्: तिनीहरू परिणाम हुन् मोडेलहरूले कसरी सिक्छन् र डिकोड गर्छन्, उनीहरूले देखेको डेटाको गुणस्तर र वास्तविक संसारमा ज्ञान अवतरण गर्ने आफ्नै सीमितताहरू।
IA मतिभ्रम भन्नाले के बुझिन्छ?
जेनेरेटिभ एआईको क्षेत्रमा, भ्रम भनेको त्यस्तो आउटपुट हो जुन सुन्दा राम्रो लागे पनि, वास्तविक डेटा द्वारा समर्थित छैन वा मान्य प्रशिक्षण ढाँचाहरूमा। कहिलेकाहीँ मोडेलले "खाली ठाउँहरू भर्छ," कहिलेकाहीँ यसले खराब रूपमा डिकोड गर्छ, र, प्रायः, यसले कुनै पनि पहिचान योग्य ढाँचा पछ्याउँदैन भन्ने जानकारी उत्पादन गर्छ।
यो शब्द रूपकात्मक छ: मेसिनहरूले हामी जस्तै "देख्दैनन्", तर छवि मिल्छ। जसरी एक व्यक्तिले देख्न सक्छ बादलमा रहेका आकृतिहरू, एउटा मोडेलले ढाँचाहरू नभएको ठाउँमा व्याख्या गर्न सक्छ, विशेष गरी छवि पहिचान कार्यहरू वा अत्यधिक जटिल पाठको उत्पादनमा।
महान भाषा मोडेलहरू (एलएलएम) ठूलो निगममा नियमितताहरू पहिचान गरेर र त्यसपछि अर्को शब्दको भविष्यवाणी गरेर सिक्नुहोस्। यो एक अत्यन्तै शक्तिशाली स्वत: पूर्ण, तर यो अझै पनि स्वत: पूर्ण छ: यदि डेटा कोलाहलपूर्ण वा अपूर्ण छ भने, यसले प्रशंसनीय र, एकै समयमा, गलत आउटपुटहरू उत्पादन गर्न सक्छ।
यसबाहेक, यो सिकाइलाई फिड गर्ने वेबमा झूटा कुराहरू छन्। प्रणालीहरू आफैंले दोहोर्याउन "सिक्छन्"। अवस्थित त्रुटिहरू र पूर्वाग्रहहरू, र कहिलेकाहीँ तिनीहरूले सिधै उद्धरणहरू, लिङ्कहरू वा विवरणहरू आविष्कार गर्छन् जुन कहिल्यै अस्तित्वमा थिएनन्, भ्रामक सुसंगतताका साथ प्रस्तुत गरिन्छन्।
तिनीहरू किन हुन्छन्: भ्रमका कारणहरू
कुनै एकल कारण छैन। सबैभन्दा सामान्य कारकहरू मध्ये एक हो तालिम डेटामा पूर्वाग्रह वा अशुद्धतायदि कोष अपूर्ण वा कमजोर सन्तुलित छ भने, मोडेलले गलत ढाँचाहरू सिक्छ जुन त्यसपछि एक्स्ट्रापोलेट गर्दछ।
यसले पनि प्रभाव पार्छ अत्यधिक फिटिङजब कुनै मोडेल आफ्नो डेटासँग धेरै संलग्न हुन्छ, यसले आफ्नो सामान्यीकरण क्षमता गुमाउँछ। वास्तविक जीवनका परिदृश्यहरूमा, यो कठोरताले भ्रामक व्याख्याहरू निम्त्याउन सक्छ किनभने यसले सिकेका कुराहरूलाई विभिन्न सन्दर्भहरूमा "जबरजस्ती" गर्छ।
La मोडेल जटिलता र ट्रान्सफर्मरको आफ्नै डिकोडिङले भूमिका खेल्छ। त्यस्ता केसहरू छन् जहाँ प्रतिक्रिया कसरी टोकनद्वारा टोकन निर्माण गरिन्छ भन्ने कारणले गर्दा आउटपुट "रेलबाट बाहिर जान्छ", यसलाई एङ्कर गर्न ठोस तथ्यात्मक आधार बिना।
IA मतिभ्रमको अर्को महत्त्वपूर्ण कारण भनेको कमी हो ग्राउन्डिङयदि प्रणालीले यसलाई वास्तविक-विश्व ज्ञान वा प्रमाणित स्रोतहरूसँग तुलना गर्दैन भने, यसले प्रशंसनीय तर गलत सामग्री उत्पादन गर्न सक्छ: सारांशहरूमा बनावटी विवरणहरूदेखि लिएर कहिल्यै अस्तित्वमा नभएका पृष्ठहरूको लिङ्कहरूसम्म।
कम्प्युटर भिजनमा एउटा उत्कृष्ट उदाहरण: यदि हामीले ट्युमर कोषहरूको तस्बिरहरू भएको मोडेललाई तालिम दियौं तर स्वस्थ तन्तुहरू समावेश गर्दैनौं भने, प्रणालीले "हेर्न" सक्छ। क्यान्सर जहाँ छैन, किनभने उनीहरूको सिकाइ ब्रह्माण्डमा वैकल्पिक कक्षाको अभाव छ।
समस्यालाई चित्रण गर्ने एआई भ्रमका वास्तविक केसहरू
यसका प्रसिद्ध उदाहरणहरू छन्। यसको सुरुवातमा, गुगलको बार्ड च्याटबोटले दाबी गर्यो कि जेम्स वेब स्पेस टेलिस्कोप एउटा बाह्य ग्रहको पहिलो तस्बिर खिचेको थियो, जुन सही थिएन। उत्तर राम्रो सुनिन्थ्यो, तर यो गलत थियो।
माइक्रोसफ्टको कुराकानीत्मक एआई, जसलाई यसको परीक्षणमा सिड्नी भनेर चिनिन्थ्यो, ले प्रयोगकर्ताहरूसँग "प्रेममा" रहेको घोषणा गरेर र सुझाव दिएर हेडलाइन बनायो अनुचित व्यवहार, जस्तै कथित रूपमा Bing कर्मचारीहरूको जासुसी गर्ने। यी तथ्यहरू थिएनन्, तिनीहरू उत्पन्न गरिएका आउटपुटहरू थिए जसले सीमाहरू पार गरे।
२०२२ मा, मेटाले प्रयोगकर्ताहरूलाई जानकारी प्रदान गरेपछि आफ्नो ग्यालेक्टिका मोडेलको डेमो फिर्ता लिएको थियो। गलत र पक्षपातीयो प्रदर्शन वैज्ञानिक क्षमताहरू प्रदर्शन गर्ने उद्देश्यले गरिएको थियो, तर औपचारिक सुसंगतताले सत्यताको ग्यारेन्टी गर्दैन भन्ने कुरा प्रदर्शन गर्न समाप्त भयो।
ChatGPT मा अर्को धेरै शैक्षिक एपिसोड भयो जब चार्ल्स III को राज्याभिषेकको सारांशको लागि सोधिएको थियो। प्रणालीले भन्यो कि समारोह मा भएको थियो 19 को 2023 मई वेस्टमिन्स्टर एबेमा, जबकि वास्तवमा यो मे ६ मा थियो। उत्तर तरल थियो, तर जानकारी गलत थियो।
ओपनएआईले GPT-4 को सीमा स्वीकार गरेको छ — जस्तै सामाजिक पूर्वाग्रह, भ्रम र निर्देशन द्वन्द्वहरू - र भन्छ कि यो तिनीहरूलाई कम गर्न काम गरिरहेको छ। यो एक सम्झना हो कि पछिल्लो पुस्ताका मोडेलहरू पनि चिप्लन सक्छन्।
IA मतिभ्रमको बारेमा, एक स्वतन्त्र प्रयोगशालाले जिज्ञासु व्यवहारहरू रिपोर्ट गर्यो: एउटा अवस्थामा, O3 ले पनि वर्णन गरेको छ कि म्याकबुक प्रोमा कार्यान्वयन गरिएको कोड च्याट वातावरण बाहिर र त्यसपछि नतिजाहरू प्रतिलिपि गर्नुहोस्, जुन तपाईंले गर्न सक्नुहुन्न।
अनि प्रयोगशाला बाहिर परिणामहरू सहितका अवरोधहरू पनि आएका छन्: एक वकिलले न्यायाधीशलाई मोडेलले बनाएका कागजातहरू प्रस्तुत गरे जुन काल्पनिक कानुनी मुद्दाहरू समावेश छन्सत्यको उपस्थिति भ्रामक थियो, तर त्यसको विषयवस्तु अस्तित्वहीन थियो।

मोडेलहरूले कसरी काम गर्छन्: ठूलो मात्रामा स्वत: पूर्णता
LLM ले ठूलो मात्रामा पाठबाट सिक्छ र यसको मुख्य काम हो अर्को शब्दको भविष्यवाणी गर्नुहोस्यसले मानिसले जस्तो तर्क गर्दैन: यसले सम्भाव्यताहरूलाई अनुकूलन गर्छ। यो संयन्त्रले एकरूप पाठ उत्पादन गर्छ, तर यसले विवरणहरू आविष्कार गर्ने ढोका पनि खोल्छ।
यदि सन्दर्भ अस्पष्ट छ वा निर्देशनले समर्थन बिना केहि सुझाव दिन्छ भने, मोडेलले सबैभन्दा विश्वसनीय भर्नुहोस् तपाईंको प्यारामिटर अनुसार। नतिजा राम्रो लाग्न सक्छ, तर यो प्रमाणित, वास्तविक तथ्यहरूमा आधारित नहुन सक्छ।
यसले सारांश जेनेरेटरले किन थप्न सक्छ भनेर बताउँछ मूलमा नभएको जानकारी वा किन गलत उद्धरण र सन्दर्भहरू देखा पर्छन्: प्रणालीले कागजात अवस्थित छ कि छैन भनेर जाँच नगरी उद्धरण ढाँचाहरू एक्स्ट्रापोलेट गर्दछ।
इमेजिङमा पनि यस्तै हुन्छ: पर्याप्त विविधता बिना वा डेटासेटमा पूर्वाग्रहहरू बिना, मोडेलहरूले उत्पादन गर्न सक्छन् छ औंला भएका हातहरू, पढ्न नसकिने पाठ, वा असंगत लेआउटहरू। दृश्य वाक्य रचना मिल्छ, तर सामग्री असफल हुन्छ।
वास्तविक जीवनका जोखिम र प्रभावहरू
पत्रकारिता र मिथ्या सूचनामा, माध्यमिक सञ्जाल र मिडियामा एक विश्वस्त भ्रमलाई बढावा दिन सकिन्छ। एक बनावटी शीर्षक वा तथ्य जुन सम्भव देखिन्छ छिटो फैलिन सक्छ, पछिको सुधारलाई जटिल बनाउँछ।
चिकित्सा क्षेत्रमा, खराब क्यालिब्रेट गरिएको प्रणालीले व्याख्याहरू निम्त्याउन सक्छ स्वास्थ्यको लागि खतरनाक, निदान देखि सिफारिस सम्म। विवेकको सिद्धान्त यहाँ वैकल्पिक छैन।
कानुनी सर्तहरूमा, मोडेलहरूले उपयोगी मस्यौदाहरू उत्पादन गर्न सक्छन्, तर सम्मिलित पनि गर्न सक्छन् अस्तित्वहीन न्यायशास्त्र वा खराब तरिकाले निर्माण गरिएका उद्धरणहरू। गल्तीले प्रक्रियाको लागि गम्भीर परिणाम निम्त्याउन सक्छ।
शिक्षामा, सारांश वा स्वचालित प्रतिक्रियाहरूमा अन्धो निर्भरताले निरन्तरता दिन सक्छ अवधारणात्मक त्रुटिहरूयो उपकरण सिक्नको लागि मूल्यवान छ, जबसम्म त्यहाँ सुपरिवेक्षण र प्रमाणीकरण हुन्छ।
न्यूनीकरण रणनीतिहरू: के गरिँदैछ र तपाईं के गर्न सक्नुहुन्छ
के एआई भ्रमबाट बच्न सकिन्छ, वा कम्तीमा कम गर्न सकिन्छ? विकासकर्ताहरूले धेरै तहहरूमा काम गर्छन्।
पहिलो मध्ये एक हो डेटा गुणस्तर सुधार गर्नुहोस्: स्रोतहरू सन्तुलन गर्ने, त्रुटिहरू डिबग गर्ने, र भ्रमलाई प्रोत्साहन गर्ने पूर्वाग्रह र अन्तरहरू कम गर्न कर्पोरा अद्यावधिक गर्ने। यसमा थपिएका प्रणालीहरू छन् तथ्य जाँच (तथ्य-जाँच) र संवर्धित रिकभरी दृष्टिकोण (ARA), जसले मोडेललाई "कल्पना" उत्तरहरूको सट्टा भरपर्दो वृत्तचित्र आधारहरूमा भर पर्न बाध्य पार्छ।
सँग समायोजन मानव प्रतिक्रिया (RLHF र अन्य भेरियन्टहरू) हानिकारक, पक्षपाती, वा गलत आउटपुटहरूलाई दण्डित गर्न र मोडेललाई थप सतर्क प्रतिक्रिया शैलीहरूमा प्रशिक्षण दिनको लागि महत्वपूर्ण रहन्छ। तिनीहरू पनि फैलिन्छन् विश्वसनीयता चेतावनीहरू इन्टरफेसहरूमा, प्रयोगकर्तालाई प्रतिक्रियामा त्रुटिहरू हुन सक्छन् र यसलाई प्रमाणित गर्नु उनीहरूको जिम्मेवारी हो भनेर सम्झाउँदै, विशेष गरी संवेदनशील सन्दर्भहरूमा।
प्रगतिमा रहेको अर्को मोर्चा हो व्याख्यात्मकतायदि कुनै प्रणालीले दावीको उत्पत्ति वा स्रोतहरूको लिङ्क व्याख्या गर्न सक्छ भने, प्रयोगकर्तासँग यसको सत्यतालाई विश्वास गर्नु अघि मूल्याङ्कन गर्न थप उपकरणहरू हुन्छन्। प्रयोगकर्ताहरू र व्यवसायहरूको लागि, केही सरल अभ्यासहरूले फरक पार्छ: डेटा जाँच गर्ने, सोध्ने स्पष्ट स्रोतहरू, उच्च जोखिम भएका क्षेत्रहरूमा प्रयोग सीमित गर्ने, मानिसहरूलाई "सूचित राख्ने" र कागजात समीक्षा प्रवाह गर्ने।
निर्माताहरूबाटै ज्ञात सीमितता र चेतावनीहरू
मोडेलहरूको लागि जिम्मेवार कम्पनीहरूले सीमाहरू पहिचान गर्छन्। GPT-4 को मामलामा, तिनीहरूलाई स्पष्ट रूपमा औंल्याइएको छ। पूर्वाग्रह, भ्रम र सक्रिय कार्य क्षेत्रहरूको बारेमा विरोधाभासी संकेतहरू।
उपभोक्ता च्याटबटहरूमा धेरै प्रारम्भिक समस्याहरू थिए पुनरावृत्तिहरू सहित घटाइएको, तर आदर्श परिस्थितिहरूमा पनि, अवांछनीय परिणामहरू हुन सक्छन्। पिच जति धेरै विश्वस्त हुन्छ, अति आत्मविश्वासको जोखिम त्यति नै बढी हुन्छ।
यस कारणले गर्दा, धेरैजसो संस्थागत सञ्चारले यी उपकरणहरू प्रयोग नगर्न जोड दिन्छन् चिकित्सा वा कानुनी सल्लाह विशेषज्ञ समीक्षा बिना, र तिनीहरू सम्भाव्य सहायक हुन्, अचूक दैवज्ञहरू होइनन्।
भ्रमका सबैभन्दा सामान्य रूपहरू
यो IA मतिभ्रम प्रकट हुने सबैभन्दा सामान्य तरिका हो:
- पाठमा, यो देख्नु सामान्य छ आविष्कार गरिएका उद्धरणहरू र ग्रन्थसूचीहरूमोडेलले सन्दर्भको "ढाँचा" को प्रतिलिपि बनाउँछ तर प्रशंसनीय लेखकहरू, मितिहरू, वा शीर्षकहरू आविष्कार गर्दछ।
- काल्पनिक वा काल्पनिक घटनाहरू पनि देखा पर्छन् गलत मितिहरू ऐतिहासिक कालक्रमहरूमा। चार्ल्स तृतीयको राज्याभिषेकको घटनाले गद्यले आफ्नो तरलता नगुमाईकन कसरी लौकिक विवरणलाई विकृत गर्न सकिन्छ भनेर चित्रण गर्दछ।
- चित्रमा, क्लासिक कलाकृतिहरू समावेश छन् असम्भव शरीर रचना भएका अंगहरू, छवि भित्रका अस्पष्ट पाठहरू वा पहिलो नजरमा बेवास्ता गरिएका स्थानिय असंगतिहरू।
- अनुवादमा, प्रणालीहरूले गर्न सक्छन् वाक्यहरू आविष्कार गर्नु जब धेरै स्थानीय वा असामान्य अभिव्यक्तिहरूको सामना गर्नुपर्यो, वा लक्षित भाषामा अवस्थित नभएका समानताहरूलाई जबरजस्ती गर्नुपर्यो।
IA मतिभ्रम एक अलग असफलता होइन तर एक आकस्मिक गुण हो अपूर्ण डेटाको साथ प्रशिक्षित सम्भाव्यता प्रणालीहरू। यसका कारणहरू पहिचान गर्नाले, वास्तविक जीवनका केसहरूबाट सिक्ने, र प्राविधिक र प्रक्रिया न्यूनीकरणहरू प्रयोग गर्नाले हामीलाई एआईलाई अर्थपूर्ण तरिकाले प्रयोग गर्न अनुमति दिन्छ, यो तथ्यलाई बिर्सनु हुँदैन कि, यो जतिसुकै तरल सुनिए पनि, उत्तर केवल तब मात्र विश्वासको योग्य हुन्छ जब यसको प्रमाणित आधार हुन्छ।
सम्पादक विभिन्न डिजिटल मिडियामा दस वर्ष भन्दा बढी अनुभवको साथ टेक्नोलोजी र इन्टरनेट मुद्दाहरूमा विशेषज्ञ। मैले इ-कमर्स, सञ्चार, अनलाइन मार्केटिङ र विज्ञापन कम्पनीहरूको लागि सम्पादक र सामग्री सिर्जनाकर्ताको रूपमा काम गरेको छु। मैले अर्थशास्त्र, वित्त र अन्य क्षेत्रका वेबसाइटहरूमा पनि लेखेको छु। मेरो काम पनि मेरो रुची हो । अब, मेरो लेखहरू मार्फत Tecnobits, म सबै समाचार र नयाँ अवसरहरू अन्वेषण गर्ने प्रयास गर्छु जुन टेक्नोलोजीको संसारले हामीलाई हाम्रो जीवन सुधार गर्न हरेक दिन प्रदान गर्दछ।

