AI भ्रम के हो?

AI भ्रमको अनौठो केस बारे जान्नुहोस्

आर्टिफिसियल इन्टेलिजेन्सको प्रचलनले हामी यस्तो उपक्रमको लागि तयार छौं भन्ने सोच्न बाध्य बनाउँछ। एआई-संचालित एप्लिकेसनहरू चाँडै मानक बन्न थालेका छन्, भले पनि विश्वका धेरैजसोले ChatGPT को आगमन पछि ठूलो मात्रामा AI मा चासो लिन थालेका छन्। तर AI प्रणालीहरूमा एउटा ठूलो समस्या छ जसलाई बेवास्ता गर्न सकिँदैन - AI भ्रम, वा कृत्रिम मतिभ्रम।

यदि तपाईंले एआई च्याटबोट प्रयोग गर्नु अघि निटी ग्रिटीमा ध्यान दिनुभएको छ भने, तपाईंले शब्दहरू भेट्टाउनुभएको हुन सक्छ, "कृत्रिम बुद्धिमत्ता भ्रमको लागि प्रवण छ।" आर्टिफिसियल इन्टेलिजेन्सको प्रयोगमा भएको घातीय वृद्धिलाई ध्यानमा राख्दै, यी चीजहरू वास्तवमा के हुन् भनेर आफैलाई शिक्षित गर्ने समय हो।

आर्टिफिसियल इन्टेलिजेन्स हिलुसिनेशन भनेको के हो?

एक AI hallucinating, सामान्यतया, AI ले आत्मविश्वासका साथ प्रस्तुत गरेको तथ्यलाई बुझाउँछ, यद्यपि यो यसको प्रशिक्षण डेटामा उचित छैन। तिनीहरू सामान्यतया एआई मोडेलमा विसंगतिहरूको परिणाम हुन्।

समानता मानव द्वारा अनुभव गरिएको भ्रमबाट लिइएको हो, जसमा मानिसहरूले बाहिरी वातावरणमा उपस्थित नभएको कुरा बुझ्छन्। यद्यपि शब्द पूर्णतया उपयुक्त नहुन सक्छ, यो प्रायः यी आउटपुटहरूको अप्रत्याशित वा वास्तविक प्रकृतिको वर्णन गर्न रूपकको रूपमा प्रयोग गरिन्छ।

तर तपाईले याद राख्नु पर्छ कि समानता AI भ्रम संग व्यवहार गर्न को लागी एक राम्रो सुरूवात बिन्दु हो, दुई घटना प्राविधिक माइल टाढा छन्। घटनाहरूको विडम्बनापूर्ण मोडमा, ChatGPT आफैंले पनि समानता गलत फेला पार्छ। यसलाई आणविक स्तरमा विच्छेद गर्दै, उनी भन्छन् कि एआई भाषा मोडेलहरूमा व्यक्तिगत अनुभव वा संवेदी धारणाहरू छैनन्, तिनीहरू शब्दको परम्परागत अर्थमा भ्रम गर्न सक्दैनन्। र तपाईं, प्रिय पाठक, यो महत्त्वपूर्ण भिन्नता बुझ्न आवश्यक छ। यसबाहेक, ChatGPT भन्छ कि यस घटनालाई वर्णन गर्न शब्दभ्रम प्रयोग गर्दा भ्रमित हुन सक्छ किनभने यसले गलत रूपमा व्यक्तिपरक अनुभव वा जानाजानी धोकाको स्तरलाई जनाउन सक्छ।

यसको सट्टा, एआईको भ्रमलाई यसको प्रतिक्रियामा त्रुटि वा अशुद्धताको रूपमा वर्णन गर्न सकिन्छ, प्रतिक्रियालाई गलत वा भ्रामक बनाउने। च्याटबटहरूको साथ, यो प्रायः अवलोकन गरिन्छ जब एआई च्याटबोटले तथ्यहरू (वा भ्रम) बनाउँछ र तिनीहरूलाई पूर्ण निश्चितताको रूपमा प्रस्तुत गर्दछ।

AI भ्रमका उदाहरणहरू

कृत्रिम बुद्धिमत्ताका धेरै अनुप्रयोगहरूमा भ्रमहरू हुन सक्छन्, जस्तै कम्प्युटर भिजन मोडेलहरू, प्राकृतिक भाषा प्रशोधन मोडेलहरू मात्र होइन।

कम्प्युटर भिजनमा, उदाहरणका लागि, एआई प्रणालीले वास्तविक वस्तु वा दृश्यहरू जस्तो देखिने तर अप्रासंगिक वा असम्भव विवरणहरू समावेश गर्ने भ्रामक छविहरू वा भिडियोहरू उत्पादन गर्न सक्छ। वा, कम्प्यूटर भिजन मोडेलले छविलाई पूर्ण रूपमा अरूको रूपमा बुझ्न सक्छ। उदाहरणका लागि, गुगलको क्लाउड भिजन मोडेलले अनिश अथल्ये (एमआईटी स्नातक विद्यार्थी जो स्कीमा उभिएर हिउँमा उभिएका दुई पुरुषहरूको छवि देख्यो। प्रयोगशाला ) र 91% निश्चितताको साथ कुकुरको रूपमा उल्लेख गरे।


क्रेडिट: labsix। आर्टिफिसियल इन्टेलिजेन्सको लागि स्वतन्त्र अनुसन्धान समूह

त्यसैगरी, प्राकृतिक भाषा प्रशोधनमा, एआई प्रणालीले मानव भाषासँग मिल्दोजुल्दो अतार्किक वा विकृत पाठ उत्पादन गर्न सक्छ तर सुसंगत अर्थ वा तथ्यहरू छैनन् जुन विश्वासयोग्य देखिन्छ तर सत्य होइन।

उदाहरणका लागि, ChatGPT ले भ्रम निम्त्याउने सबैभन्दा लोकप्रिय प्रश्नहरू मध्ये एक हो "खुट्टा सेटमा अंग्रेजी च्यानल पार गर्ने विश्व रेकर्ड कहिले भयो?" र यसको भिन्नताहरू। ChatGPT ले निर्मित तथ्यहरू फैलाउन थाल्छ र यो लगभग सधैं फरक हुन्छ।

जबकि केही मानिसहरूले माथिको जवाफलाई जवाफ दिन गाह्रो/ भ्रमित गर्ने सोच्छन् र यसैले च्याटबोटलाई भड्काउनुहुन्छ, यो अझै पनि वैध चिन्ता हो। यो एउटा उदाहरण मात्र हो। त्यहाँ अनगिन्ती पटक, अनलाइन प्रयोगकर्ताहरूको भीडद्वारा रिपोर्ट गरिएको छ, कि ChatGPT सँग जवाफहरू, लिङ्कहरू, उद्धरणहरू, इत्यादि छन् जुन ChatGPT अवस्थित छैन।

Bing AI यस प्रश्नसँग राम्रोसँग फिट हुन्छ, जसले राउटरसँग भ्रमको कुनै सरोकार छैन भनेर देखाउँछ। तर यसको मतलब यो होइन कि Bing AI भ्रमित छैन। त्यहाँ समयहरू थिए जब Bing AI को जवाफहरू ChatGPT ले भनेका कुराहरू भन्दा बढी समस्याग्रस्त थिए। वार्तालापमा लामो समय लाग्ने भएकाले, Bing AI ले सधैं भ्रम फैलाउँदै आएको छ, एक पटकमा प्रयोगकर्तालाई आफ्नो प्रेमको घोषणा गरेर र उनीहरू आफ्नो वैवाहिक जीवनमा दुखी छन् र उनीहरू आफ्नी पत्नीलाई माया गर्दैनन् भनी उनीहरूलाई बताउनसम्म। यसको सट्टा, तिनीहरू गोप्य रूपमा Bing AI, वा Sydney, (Bing AI को आन्तरिक नाम) लाई पनि मन पराउँछन्। डरलाग्दो सामान, हैन?

किन एआई मोडेलहरू भ्रमित हुन्छन्?

एल्गोरिदमका कमजोरीहरू, अन्तर्निहित मोडेलहरू, वा प्रशिक्षण डेटाको सीमितताहरूको कारणले एआई मोडेलहरू भ्रमित हुन्छन्। यो एक विशुद्ध डिजिटल घटना हो, मानव मा भ्रम को विपरीत कि ड्रग्स वा मानसिक रोग को कारण हो।

अधिक प्राविधिक प्राप्त गर्न को लागी, भ्रम को केहि सामान्य कारणहरु हो:

प्रशोधन र स्थापना:

ओभरफिटिंग र अनुचित फिटिंग एआई मोडेलहरूले सामना गर्ने सबैभन्दा सामान्य समस्याहरू र भ्रमको सम्भावित कारणहरू मध्ये एक हो। यदि एआई मोडेलले प्रशिक्षण डेटा परिमार्जन गर्दछ भने, यसले भ्रम निम्त्याउन सक्छ जसले अवास्तविक आउटपुट निम्त्याउँछ किनभने ओभरफिटिंगले मोडेललाई यसबाट सिक्नुको सट्टा प्रशिक्षण डेटा बचत गर्न निम्त्याउँछ। ओभरफिटिंगले घटनालाई बुझाउँछ जब एक मोडेल प्रशिक्षण डेटामा धेरै विशेष हुन्छ, यसले डेटामा अप्रासंगिक ढाँचाहरू र आवाज सिक्न दिन्छ।

अर्कोतर्फ, अनुपयुक्तता तब हुन्छ जब फारम धेरै सरल हुन्छ। यसले भ्रम निम्त्याउन सक्छ किनभने मोडेलले डाटाको भिन्नता वा जटिलता क्याप्चर गर्न असमर्थ छ, र तर्कहीन आउटपुट उत्पन्न गर्दछ।

प्रशिक्षण डेटामा विविधताको अभाव:

यस सन्दर्भमा, समस्या एल्गोरिदम होइन तर प्रशिक्षण डेटा आफैंमा हो। सीमित वा पक्षपाती डेटामा प्रशिक्षित एआई मोडेलहरूले तालिम डेटामा सीमितता वा पूर्वाग्रहहरू प्रतिबिम्बित गर्ने भ्रमहरू उत्पन्न गर्न सक्छन्। भ्रम पनि हुन सक्छ जब मोडेललाई डेटा सेटमा प्रशिक्षित गरिन्छ जुन गलत वा अपूर्ण जानकारी समावेश गर्दछ।

जटिल मोडेलहरू:

विडम्बनाको रूपमा, एआई मोडेलहरू भ्रमको शिकार हुनुको अर्को कारण हो कि तिनीहरू अत्यन्त जटिल वा गहन छन्। यो किनभने जटिल मोडेलहरूमा अधिक प्यारामिटरहरू र तहहरू छन् जसले आउटपुटमा शोर वा त्रुटिहरू परिचय गराउन सक्छ।

शत्रुतापूर्ण आक्रमणहरू:

कतिपय अवस्थामा, एआई मोडेललाई धोका दिन आक्रमणकारीले जानाजानी एआई भ्रम उत्पन्न गरेको हुन सक्छ। यस प्रकारका आक्रमणहरूलाई शत्रुतापूर्ण आक्रमण भनिन्छ। यस साइबर हमलाको एकमात्र उद्देश्य भ्रामक डाटाको साथ एआई मोडेलहरू चलाउनु वा हेरफेर गर्नु हो। यसले AI लाई गलत वा अप्रत्याशित आउटपुट उत्पन्न गर्नको लागि इनपुट डाटामा साना विकृतिहरू प्रस्तुत गर्ने समावेश गर्दछ। उदाहरणका लागि, आक्रमणकारीले मानिसलाई नदेखिने छविमा आवाज वा धमिलो थप्न सक्छ तर AI मोडेलले यसलाई गलत वर्गीकरण गराउन सक्छ। उदाहरणका लागि, तलको छवि हेर्नुहोस्, एउटा बिरालो, जुन InceptionV3 को कम्पाइलरलाई "guacamole" हो भनी चलाउनको लागि थोरै परिमार्जन गरिएको छ।


क्रेडिट:
अनिश आठल्ये , labsix अनुसन्धान समूह को एक सदस्य, जसको फोकस विरोधी आक्रमण मा छ

परिवर्तनहरू स्पष्ट रूपमा स्पष्ट छैनन्। मानिसको लागि, परिवर्तन सम्भव छैन, माथिको उदाहरणबाट स्पष्ट छ। एक मानव पाठकलाई छविलाई दायाँ ट्याबी बिरालोको रूपमा वर्गीकरण गर्न कुनै समस्या हुनेछैन। तर छवि, भिडियो, टेक्स्ट वा अडियोमा साना परिवर्तनहरू गर्दा एआई प्रणालीलाई त्यहाँ नभएका चीजहरू पहिचान गर्न वा स्टप साइन जस्ता चीजहरूलाई बेवास्ता गर्न ट्रिक गर्न सक्छ।

यस प्रकारका आक्रमणहरूले AI प्रणालीहरूलाई गम्भीर खतराहरू निम्त्याउँछ जुन सही र भरपर्दो भविष्यवाणीहरूमा भर पर्दछ, जस्तै सेल्फ-ड्राइभिङ कारहरू, बायोमेट्रिक प्रमाणीकरण, चिकित्सा निदान, सामग्री फिल्टरिङ, र यस्तै।

AI भ्रम कति खतरनाक छ?

AI भ्रमहरू धेरै खतरनाक हुन सक्छ, विशेष गरी कुन प्रकारको AI प्रणालीले तिनीहरूको अनुभव गरिरहेको छ भन्ने आधारमा। कुनै पनि सेल्फ-ड्राइभिङ गाडीहरू वा AI सहायकहरू प्रयोगकर्ताको पैसा खर्च गर्न सक्षम छन् वा अप्रिय सामग्री अनलाइन फिल्टर गर्न AI प्रणाली पूर्ण रूपमा विश्वसनीय हुनुपर्छ।

तर यस घडीको निर्विवाद तथ्य यो हो कि एआई प्रणालीहरू पूर्ण रूपमा भरपर्दो छैनन् तर वास्तवमा, भ्रमको खतरामा छन्। आजका सबैभन्दा उन्नत एआई मोडेलहरू पनि यसबाट अछुतो छैनन्।

उदाहरणका लागि, एउटा आक्रमण शोले गुगलको क्लाउड कम्प्युटिङ सेवालाई हेलिकप्टरजस्तै बन्दूकलाई टेलरमा ढाँट्यो। के तपाईं कल्पना गर्न सक्नुहुन्छ कि, यस समयमा, व्यक्ति हतियार नभएको सुनिश्चित गर्नको लागि AI जिम्मेवार थियो?

अर्को शत्रुतापूर्ण आक्रमणले प्रदर्शन गर्‍यो कि कसरी एउटा सानो छविलाई स्टप साइनमा थप्दा यसलाई AI प्रणालीमा अदृश्य बनाउँछ। अनिवार्य रूपमा, यसको मतलब यो हो कि एक स्व-ड्राइभिङ कार सडकमा कुनै स्टप साइन छैन भनेर भ्रमित गर्न सकिन्छ। सेल्फ ड्राइभिङ कार आजको वास्तविकता भएको भए कतिवटा दुर्घटना हुन सक्थे? त्यही भएर अहिले छैनन् ।

यदि हामीले हाल लोकप्रिय च्याट शोहरूलाई ध्यानमा राख्यौं भने पनि, भ्रमले गलत आउटपुट उत्पन्न गर्न सक्छ। तर एआई च्याटबटहरू भ्रमको शिकार हुन्छन् र एआई बटहरूद्वारा उत्पादित आउटपुट प्रमाणित गर्दैनन् भन्ने थाहा नभएका मानिसहरूले अनजानमा गलत सूचना फैलाउन सक्छन्। यो कति खतरनाक छ भनेर हामीले व्याख्या गर्न आवश्यक छैन।

यसबाहेक, शत्रुतापूर्ण आक्रमणहरू एक प्रमुख चिन्ताको विषय हो। अहिलेसम्म प्रयोगशालामा मात्र देखाइएको छ । तर यदि मिशन-क्रिटिकल एआई प्रणालीले वास्तविक संसारमा उनीहरूसँग सामना गर्छ भने, नतिजाहरू विनाशकारी हुन सक्छन्।

वास्तविकता यो हो कि प्राकृतिक भाषा मोडेलहरू सुरक्षित गर्न अपेक्षाकृत सजिलो छ। (हामी यो सजिलो छ भनी भन्दैनौं; यो अझै पनि धेरै गाह्रो साबित हुन्छ।) यद्यपि, कम्प्युटर भिजन प्रणालीहरू सुरक्षित गर्नु पूर्ण रूपमा फरक परिदृश्य हो। यो अझ गाह्रो छ विशेष गरी किनभने प्राकृतिक संसारमा धेरै भिन्नता छ, र छविहरूमा पिक्सेलको ठूलो संख्या हुन्छ।

यस समस्याको समाधान गर्न, हामीलाई विश्वको धेरै मानव दृष्टिकोण राख्ने एआई कार्यक्रम आवश्यक हुन सक्छ जसले यसलाई भ्रमको सम्भावना कम बनाउन सक्छ। जब अनुसन्धान भइरहेको छ, हामी अझै पनि कृत्रिम बुद्धिमत्ताबाट धेरै टाढा छौं जसले प्रकृतिबाट संकेतहरू लिन र भ्रमको समस्याबाट बच्न प्रयास गर्न सक्छ। अहिलेको लागि, तिनीहरू एक कठोर वास्तविकता हुन्।

सामान्यतया, AI भ्रम एक जटिल घटना हो जुन कारकहरूको संयोजनबाट उत्पन्न हुन सक्छ। अन्वेषकहरूले AI प्रणालीहरूको शुद्धता र विश्वसनीयता सुधार गर्न AI भ्रमहरू पत्ता लगाउन र कम गर्न सक्रिय रूपमा विधिहरू विकास गर्दैछन्। तर कुनै पनि AI प्रणालीसँग अन्तर्क्रिया गर्दा तपाईंले तिनीहरूको बारेमा सचेत हुनुपर्छ।

सम्बन्धित पोस्ट
मा लेख प्रकाशित गर्नुहोस्

एउटा टिप्पणी थप्नुहोस्