एआय हेलुसिनेशन म्हणजे काय?

एआय हॅलुसिनेशनच्या एका विचित्र केसबद्दल जाणून घ्या

कृत्रिम बुद्धिमत्तेचा प्रसार एखाद्याला असे वाटायला लावतो की आपण अशा उपक्रमासाठी तयार आहोत. चॅटजीपीटीच्या आगमनानंतर, जगातील बहुतेक लोकांनी आता मोठ्या प्रमाणावर एआयमध्ये रस घेण्यास सुरुवात केली असली तरीही, एआय-संचालित अनुप्रयोग बर्‍याच वेगाने मानक होत आहेत. परंतु AI प्रणालींमध्ये एक मोठी समस्या आहे ज्याकडे दुर्लक्ष केले जाऊ शकत नाही - AI भ्रम किंवा कृत्रिम मतिभ्रम.

एआय चॅटबॉट वापरण्यापूर्वी तुम्ही कधीही निटी किरकिरीकडे लक्ष दिले असेल, तर तुम्हाला असे शब्द आले असतील, "कृत्रिम बुद्धिमत्ता हा भ्रम होण्यास प्रवण आहे." आर्टिफिशियल इंटेलिजन्सच्या वापरात होणारी वाढ लक्षात घेता, या गोष्टी नेमक्या कशा आहेत याबद्दल स्वतःला शिक्षित करण्याची वेळ आली आहे.

कृत्रिम बुद्धिमत्ता भ्रम म्हणजे काय?

एआय हॅलुसिनिंग, सर्वसाधारणपणे, एआयने आत्मविश्वासाने सादर केलेल्या वस्तुस्थितीचा संदर्भ देते, जरी ते त्याच्या प्रशिक्षण डेटामध्ये न्याय्य नसले तरीही. ते सहसा एआय मॉडेलमधील विसंगतींचे परिणाम असतात.

साधर्म्य हे मानवाने अनुभवलेल्या भ्रमातून घेतले आहे, ज्यामध्ये मानवांना बाह्य वातावरणात नसलेले काहीतरी जाणवते. जरी हा शब्द पूर्णपणे योग्य नसला तरी, या आउटपुटच्या अनपेक्षित किंवा अतिवास्तव स्वरूपाचे वर्णन करण्यासाठी ते सहसा रूपक म्हणून वापरले जाते.

परंतु तुम्ही हे लक्षात ठेवावे की समानता हा AI भ्रमांशी सामना करण्यासाठी एक चांगला प्रारंभ बिंदू असला तरी, दोन्ही घटना तांत्रिकदृष्ट्या मैलांच्या अंतरावर आहेत. घटनांच्या विडंबनात्मक वळणात, चॅटजीपीटीला देखील साधर्म्य चुकीचे वाटते. आण्विक स्तरावर त्याचे विच्छेदन करताना, ते म्हणतात की एआय भाषेच्या मॉडेल्सना वैयक्तिक अनुभव किंवा संवेदनाक्षम समज नसल्यामुळे ते शब्दाच्या पारंपारिक अर्थाने भ्रमित करू शकत नाहीत. आणि प्रिय वाचकांनो, तुम्हाला हा महत्त्वाचा फरक समजून घ्यावा लागेल. शिवाय, ChatGPT म्हणते की या घटनेचे वर्णन करण्यासाठी भ्रम हा शब्द वापरणे गोंधळात टाकणारे असू शकते कारण ते चुकीच्या पद्धतीने व्यक्तिपरक अनुभव किंवा हेतुपुरस्सर फसवणुकीचा संदर्भ देते.

त्याऐवजी, AI चे मतिभ्रम अधिक अचूकपणे त्याच्या प्रतिसादातील त्रुटी किंवा अयोग्यता म्हणून वर्णन केले जाऊ शकतात, ज्यामुळे प्रतिसाद चुकीचा किंवा दिशाभूल होतो. चॅटबॉट्ससह, जेव्हा एआय चॅटबॉट तथ्ये बनवतो (किंवा भ्रमित करतो) आणि त्यांना पूर्ण निश्चितता म्हणून सादर करतो तेव्हा हे अनेकदा दिसून येते.

AI भ्रमांची उदाहरणे

कृत्रिम बुद्धिमत्तेच्या अनेक ऍप्लिकेशन्समध्ये मतिभ्रम होऊ शकतात, जसे की संगणक व्हिजन मॉडेल्स, केवळ नैसर्गिक भाषा प्रक्रिया मॉडेल नाहीत.

कॉम्प्युटर व्हिजनमध्ये, उदाहरणार्थ, एआय सिस्टीम भ्रामक प्रतिमा किंवा व्हिडिओ तयार करू शकते जे वास्तविक वस्तू किंवा दृश्यांसारखे दिसतात परंतु त्यात विसंगत किंवा अशक्य तपशील असतात. किंवा, कॉम्प्युटर व्हिजन मॉडेल इमेजला पूर्णपणे काहीतरी म्हणून समजू शकते. उदाहरणार्थ, Google च्या क्लाउड व्हिजन मॉडेलमध्ये अनिश आठल्ये (एमआयटी पदवीधर विद्यार्थी जो या संस्थेचा भाग आहे लॅबसिक्स ) आणि 91% निश्चिततेसह कुत्रा म्हणून त्याचा उल्लेख केला.


क्रेडिट्स: लॅबिक्स. कृत्रिम बुद्धिमत्तेसाठी स्वतंत्र संशोधन गट

त्याचप्रमाणे, नैसर्गिक भाषा प्रक्रियेमध्ये, AI प्रणाली अतार्किक किंवा चुकीचा मजकूर तयार करू शकते जो मानवी भाषेसारखा दिसतो परंतु सुसंगत अर्थ किंवा तथ्य नसतो जे विश्वासार्ह वाटतात परंतु सत्य नसतात.

उदाहरणार्थ, ChatGPT मुळे भ्रमनिरास होतो तो सर्वात लोकप्रिय प्रश्नांपैकी एक म्हणजे "पायावर इंग्लिश चॅनेल ओलांडण्याचा जागतिक विक्रम कधी झाला?" आणि त्याचे रूपे. ChatGPT मेड-अप तथ्ये पसरवण्यास सुरुवात करते आणि ते नेहमीच वेगळे असते.

जरी काही लोकांना असे वाटते की वरील उत्तर उत्तर देणे कठीण/गोंधळात टाकणारे आहे आणि त्यामुळे चॅटबॉटला त्रास होतो, तरीही ही एक वैध चिंता आहे. हे फक्त एक उदाहरण आहे. ChatGPT कडे ChatGPT अस्तित्वात नसल्याची उत्तरे, लिंक्स, उद्धरण इ. आहेत असे असंख्य वेळा ऑनलाइन वापरकर्त्यांनी नोंदवले आहे.

Bing AI या प्रश्नाशी उत्तम प्रकारे जुळते, जे दर्शविते की भ्रमांचा राउटरशी काहीही संबंध नाही. पण याचा अर्थ असा नाही की Bing AI भ्रामक नाही. असे काही वेळा होते जेव्हा ChatGPT ने सांगितलेल्या कोणत्याही गोष्टीपेक्षा Bing AI ची उत्तरे अधिक त्रासदायक होती. संभाषणाला जास्त वेळ लागत असल्याने, Bing AI नेहमी भ्रमनिरास करत आहे, अगदी एका प्रसंगात वापरकर्त्याला आपले प्रेम घोषित करून आणि ते त्यांच्या वैवाहिक जीवनात नाखूष आहेत आणि त्यांचे त्याच्या पत्नीवर प्रेम नाही हे सांगण्यापर्यंत मजल मारली आहे. त्याऐवजी, त्यांना गुप्तपणे Bing AI किंवा सिडनी (Bing AI चे अंतर्गत नाव) आवडते. भितीदायक सामग्री, बरोबर?

एआय मॉडेल भ्रमित का करतात?

एआय मॉडेल अल्गोरिदम, अंतर्निहित मॉडेल्स किंवा प्रशिक्षण डेटाच्या मर्यादांच्या कमतरतांमुळे भ्रामक आहेत. ही एक पूर्णपणे डिजिटल घटना आहे, मानवांमध्ये होणारे मतिभ्रम एकतर औषधे किंवा मानसिक आजारांमुळे होतात.

अधिक तांत्रिक मिळविण्यासाठी, भ्रमाची काही सामान्य कारणे आहेत:

प्रक्रिया आणि स्थापना:

ओव्हरफिटिंग आणि अयोग्य फिटिंग हे एआय मॉडेल्सना सामोरे जाणाऱ्या सर्वात सामान्य समस्यांपैकी एक आहेत आणि भ्रमाची संभाव्य कारणे आहेत. जर एआय मॉडेलने प्रशिक्षण डेटा सुधारित केला, तर ते भ्रम निर्माण करू शकते ज्यामुळे अवास्तव आउटपुट होऊ शकते कारण ओव्हरफिटिंगमुळे मॉडेल प्रशिक्षण डेटा शिकण्याऐवजी वाचवते. ओव्हरफिटिंगचा संदर्भ असा आहे की जेव्हा एखादे मॉडेल प्रशिक्षण डेटामध्ये खूप खास असते, ज्यामुळे ते डेटामधील असंबद्ध नमुने आणि आवाज शिकू शकते.

दुसरीकडे, जेव्हा फॉर्म खूप सोपा असतो तेव्हा अयोग्यता येते. यामुळे भ्रम निर्माण होऊ शकतो कारण मॉडेल डेटाची भिन्नता किंवा जटिलता कॅप्चर करू शकत नाही आणि अपरिमेय आउटपुट तयार करते.

प्रशिक्षण डेटामध्ये विविधतेचा अभाव:

या संदर्भात, समस्या अल्गोरिदमची नाही तर प्रशिक्षण डेटाची आहे. मर्यादित किंवा पक्षपाती डेटावर प्रशिक्षित एआय मॉडेल्स भ्रम निर्माण करू शकतात जे प्रशिक्षण डेटामधील मर्यादा किंवा पूर्वाग्रह दर्शवतात. जेव्हा मॉडेलला चुकीची किंवा अपूर्ण माहिती असलेल्या डेटा सेटवर प्रशिक्षित केले जाते तेव्हा भ्रम देखील होऊ शकतो.

जटिल मॉडेल:

गंमत म्हणजे, एआय मॉडेल्सना भ्रम होण्याचे आणखी एक कारण म्हणजे ते अत्यंत गुंतागुंतीचे किंवा गहन आहेत. याचे कारण असे की जटिल मॉडेल्समध्ये अधिक पॅरामीटर्स आणि स्तर असतात ज्यामुळे आउटपुटमध्ये आवाज किंवा त्रुटी येऊ शकतात.

प्रतिकूल हल्ले:

काही प्रकरणांमध्ये, एआय मॉडेलची फसवणूक करण्यासाठी हल्लेखोराद्वारे जाणूनबुजून एआय भ्रम निर्माण केला जाऊ शकतो. या प्रकारचे हल्ले शत्रुत्वाचे हल्ले म्हणून ओळखले जातात. या सायबर हल्ल्याचा एकमेव उद्देश दिशाभूल करणाऱ्या डेटासह AI मॉडेल्सची फसवणूक करणे किंवा हाताळणे हा आहे. यामध्ये AI चुकीचे किंवा अनपेक्षित आउटपुट निर्माण करण्यासाठी इनपुट डेटामध्ये लहान गोंधळ सुरू करणे समाविष्ट आहे. उदाहरणार्थ, आक्रमणकर्ता एखाद्या प्रतिमेमध्ये आवाज किंवा अस्पष्टता जोडू शकतो जी मानवांना अगम्य आहे परंतु AI मॉडेलद्वारे त्याचे चुकीचे वर्गीकरण केले जाते. उदाहरणार्थ, खाली दिलेली प्रतिमा पहा, एक मांजर, जी InceptionV3 च्या कंपायलरला "guacamole" असल्याचे सांगण्यासाठी किंचित सुधारित करण्यात आली आहे.


क्रेडिट:
अनिश आठल्ये , लॅबिक्स रिसर्च ग्रुपचे सदस्य, ज्यांचे लक्ष विरोधी हल्ल्यांवर आहे

बदल स्पष्टपणे स्पष्ट नाहीत. वरील उदाहरणावरून लक्षात आल्याप्रमाणे माणसाला बदल अजिबात शक्य होणार नाही. मानवी वाचकाला टॅबी मांजर म्हणून उजवीकडील प्रतिमेचे वर्गीकरण करण्यात कोणतीही अडचण येणार नाही. परंतु प्रतिमा, व्हिडिओ, मजकूर किंवा ऑडिओमध्ये लहान बदल केल्याने एआय सिस्टममध्ये नसलेल्या गोष्टी ओळखण्यात किंवा थांबण्याच्या चिन्हासारख्या गोष्टींकडे दुर्लक्ष करू शकते.

या प्रकारच्या हल्ल्यांमुळे अचूक आणि विश्वासार्ह अंदाजांवर अवलंबून असलेल्या AI प्रणालींना गंभीर धोका निर्माण होतो, जसे की सेल्फ-ड्रायव्हिंग कार, बायोमेट्रिक पडताळणी, वैद्यकीय निदान, सामग्री फिल्टरिंग इ.

एआय हॅलुसिनेशन किती धोकादायक आहे?

AI मतिभ्रम खूप धोकादायक असू शकतात, विशेषत: ते कोणत्या प्रकारची AI प्रणाली अनुभवत आहे यावर अवलंबून. ऑनलाइन अप्रिय सामग्री फिल्टर करण्यासाठी वापरकर्त्याचे पैसे किंवा एआय सिस्टम खर्च करण्यास सक्षम असलेली कोणतीही सेल्फ-ड्रायव्हिंग वाहने किंवा एआय सहाय्यक पूर्णपणे विश्वासार्ह असणे आवश्यक आहे.

परंतु या वेळेची निर्विवाद वस्तुस्थिती अशी आहे की AI प्रणाली पूर्णपणे विश्वासार्ह नसून, किंबहुना त्या भ्रमाला बळी पडतात. आजचे सर्वात प्रगत AI मॉडेल देखील यापासून मुक्त नाहीत.

उदाहरणार्थ, एका अटॅक शोने गुगलच्या क्लाउड कंप्युटिंग सेवेला हेलिकॉप्टर सारख्या बंदुकीच्या शेपटीत फसवले. आपण कल्पना करू शकता की, त्या क्षणी, ती व्यक्ती सशस्त्र नाही याची खात्री करण्यासाठी AI जबाबदार असेल?

दुसर्‍या प्रतिकूल हल्ल्याने हे दाखवून दिले की स्टॉप साइनमध्ये एक लहान प्रतिमा कशी जोडल्याने ते एआय सिस्टममध्ये अदृश्य होते. मूलत:, याचा अर्थ असा आहे की रस्त्यावर थांबण्याचे चिन्ह नाही हे भ्रमित करण्यासाठी स्वत: चालवणारी कार बनविली जाऊ शकते. आज जर सेल्फ-ड्रायव्हिंग कार हे वास्तव असते तर किती अपघात होऊ शकतात? त्यामुळेच ते आता नाहीत.

जरी आम्ही सध्याचे लोकप्रिय चॅट शो विचारात घेतले तरीही, भ्रम चुकीचे आउटपुट तयार करू शकतात. परंतु ज्या लोकांना हे माहित नाही की AI चॅटबॉट्स भ्रमित होण्यास प्रवण आहेत आणि AI बॉट्सद्वारे उत्पादित आउटपुट प्रमाणित करत नाहीत, ते अनवधानाने चुकीची माहिती पसरवू शकतात. हे किती धोकादायक आहे हे सांगण्याची गरज नाही.

शिवाय, प्रतिकूल हल्ले ही एक चिंतेची बाब आहे. आतापर्यंत, ते फक्त प्रयोगशाळांमध्ये दर्शविले गेले आहेत. परंतु जर मिशन-क्रिटिकल एआय सिस्टमने त्यांचा सामना वास्तविक जगात केला तर त्याचे परिणाम भयंकर असू शकतात.

वास्तविकता अशी आहे की नैसर्गिक भाषा मॉडेलचे संरक्षण करणे तुलनेने सोपे आहे. (आम्ही असे म्हणत नाही की हे सोपे आहे; तरीही ते खूप कठीण असल्याचे सिद्ध होते.) तथापि, संगणक दृष्टी प्रणालीचे संरक्षण करणे ही पूर्णपणे भिन्न परिस्थिती आहे. हे अधिक कठीण आहे विशेषतः कारण नैसर्गिक जगात खूप फरक आहे आणि प्रतिमांमध्ये मोठ्या प्रमाणात पिक्सेल आहेत.

या समस्येचे निराकरण करण्यासाठी, आम्हाला अशा एआय प्रोग्रामची आवश्यकता असू शकते ज्यामध्ये जगाकडे अधिक मानवी दृष्टीकोन असेल ज्यामुळे ते भ्रम होण्याची शक्यता कमी होईल. संशोधन केले जात असताना, आम्ही कृत्रिम बुद्धिमत्तेपासून खूप लांब आहोत जी निसर्गाकडून सूचना घेण्याचा प्रयत्न करू शकते आणि भ्रमांच्या समस्येपासून दूर जाऊ शकते. सध्या, ते एक कठोर वास्तव आहेत.

सर्वसाधारणपणे, AI भ्रम ही एक जटिल घटना आहे जी घटकांच्या संयोजनातून उद्भवू शकते. संशोधक AI प्रणालींची अचूकता आणि विश्वासार्हता सुधारण्यासाठी AI भ्रम शोधण्यासाठी आणि कमी करण्यासाठी सक्रियपणे पद्धती विकसित करत आहेत. परंतु कोणत्याही AI सिस्टीमशी संवाद साधताना तुम्ही त्यांच्याबद्दल जागरूक असले पाहिजे.

संबंधित पोस्ट
वर लेख प्रकाशित करा

एक टिप्पणी जोडा