AI மாயத்தோற்றம் என்றால் என்ன?

ஒரு விசித்திரமான AI மாயத்தோற்றம் பற்றி அறிக

செயற்கை நுண்ணறிவின் பரவலானது அத்தகைய முயற்சிக்கு நாங்கள் தயாராக இருக்கிறோம் என்று நினைக்க வைக்கிறது. ChatGPTயின் வருகைக்குப் பிறகு, உலகின் பெரும்பாலான நாடுகள் இப்போதுதான் AI-யில் அதிக அளவில் ஆர்வம் காட்டத் தொடங்கினாலும், AI-இயங்கும் பயன்பாடுகள் மிக விரைவாக நிலையானதாகி வருகின்றன. ஆனால் புறக்கணிக்க முடியாத AI அமைப்புகளில் ஒரு பெரிய சிக்கல் உள்ளது - AI மாயத்தோற்றங்கள் அல்லது செயற்கை மாயத்தோற்றங்கள்.

AI சாட்போட்டைப் பயன்படுத்துவதற்கு முன்பு நீங்கள் எப்போதாவது நிட்டி கிரிட்டியில் கவனம் செலுத்தியிருந்தால், நீங்கள் இந்த வார்த்தைகளைக் கண்டிருக்கலாம், "செயற்கை நுண்ணறிவு மாயத்தோற்றத்திற்கு ஆளாகிறது." செயற்கை நுண்ணறிவின் பயன்பாட்டில் அதிவேக அதிகரிப்பைக் கருத்தில் கொண்டு, இந்த விஷயங்கள் என்ன என்பதை நீங்களே கற்றுக் கொள்ள வேண்டிய நேரம் இது.

செயற்கை நுண்ணறிவு மாயத்தோற்றம் என்றால் என்ன?

ஒரு AI மாயத்தோற்றம், பொதுவாக, AI அதன் பயிற்சித் தரவுகளில் நியாயப்படுத்தப்படாவிட்டாலும், நம்பிக்கையுடன் வழங்கிய உண்மையைக் குறிக்கிறது. அவை பொதுவாக AI மாதிரியில் ஏற்படும் முரண்பாடுகளின் விளைவாகும்.

இந்த ஒப்புமை மனிதர்கள் அனுபவிக்கும் மாயத்தோற்றங்களிலிருந்து எடுக்கப்பட்டது, இதில் மனிதர்கள் வெளிப்புற சூழலில் இல்லாத ஒன்றை உணர்கிறார்கள். இந்த சொல் முற்றிலும் பொருத்தமானதாக இல்லாவிட்டாலும், இந்த வெளியீடுகளின் எதிர்பாராத அல்லது சர்ரியல் தன்மையை விவரிக்க இது ஒரு உருவகமாகப் பயன்படுத்தப்படுகிறது.

AI மாயத்தோற்றங்களைக் கையாள்வதில் ஒற்றுமை ஒரு நல்ல தொடக்க புள்ளியாக இருந்தாலும், இரண்டு நிகழ்வுகளும் தொழில்நுட்ப ரீதியாக மைல்கள் தொலைவில் உள்ளன என்பதை நீங்கள் நினைவில் கொள்ள வேண்டும். நிகழ்வுகளின் முரண்பாடான திருப்பத்தில், ChatGPT கூட ஒப்புமையை தவறாகக் காண்கிறது. மூலக்கூறு மட்டத்தில் அதைப் பிரித்து, AI மொழி மாதிரிகளுக்கு தனிப்பட்ட அனுபவம் அல்லது உணர்ச்சி உணர்வுகள் இல்லாததால், அவர்கள் வார்த்தையின் பாரம்பரிய அர்த்தத்தில் மாயத்தோற்றம் செய்ய முடியாது என்று கூறுகிறார். மேலும், அன்பான வாசகரே, இந்த முக்கியமான வேறுபாட்டை நீங்கள் புரிந்து கொள்ள வேண்டும். மேலும், இந்த நிகழ்வை விவரிக்க மாயத்தோற்றங்கள் என்ற வார்த்தையைப் பயன்படுத்துவது குழப்பமானதாக இருக்கலாம் என்று ChatGPT கூறுகிறது, ஏனெனில் இது அகநிலை அனுபவம் அல்லது வேண்டுமென்றே ஏமாற்றும் நிலையை தவறாகக் குறிக்கலாம்.

மாறாக, AI இன் மாயத்தோற்றங்கள் அதன் பதிலில் உள்ள பிழைகள் அல்லது பிழைகள் என மிகவும் துல்லியமாக விவரிக்கப்படலாம், பதிலை தவறாக அல்லது தவறாக வழிநடத்துகிறது. சாட்போட்களுடன், AI சாட்பாட் உண்மைகளை உருவாக்கி (அல்லது மாயத்தோற்றம்) அவற்றை முழுமையான உறுதியானதாக முன்வைக்கும் போது இது அடிக்கடி கவனிக்கப்படுகிறது.

AI மாயத்தோற்றங்களின் எடுத்துக்காட்டுகள்

இயற்கையான மொழி செயலாக்க மாதிரிகள் மட்டுமின்றி, கணினி பார்வை மாதிரிகள் போன்ற செயற்கை நுண்ணறிவின் பல பயன்பாடுகளிலும் மாயத்தோற்றங்கள் ஏற்படலாம்.

கணினி பார்வையில், எடுத்துக்காட்டாக, ஒரு AI அமைப்பு உண்மையான பொருள்கள் அல்லது காட்சிகளை ஒத்த மாயத்தோற்றமான படங்கள் அல்லது வீடியோக்களை உருவாக்கலாம், ஆனால் பொருத்தமற்ற அல்லது சாத்தியமற்ற விவரங்களைக் கொண்டிருக்கும். அல்லது, ஒரு கணினி பார்வை மாதிரியானது படத்தை முற்றிலும் வேறொன்றாக உணர முடியும். எடுத்துக்காட்டாக, கூகிளின் கிளவுட் விஷன் மாதிரியானது பனியில் பனியில் நிற்கும் இரண்டு ஆண்கள் பனியில் நிற்கும் படத்தைக் கண்டது (ஒரு எம்ஐடி பட்டதாரி மாணவர் ஆய்வகம் ) மற்றும் 91% உறுதியுடன் ஒரு நாய் என்று குறிப்பிட்டார்.


கடன்: labsix. செயற்கை நுண்ணறிவுக்கான ஒரு சுயாதீன ஆராய்ச்சி குழு

இதேபோல், இயற்கையான மொழி செயலாக்கத்தில், ஒரு AI அமைப்பு மனித மொழியைப் போலவே நியாயமற்ற அல்லது குழப்பமான உரையை உருவாக்கலாம், ஆனால் ஒரு ஒத்திசைவான பொருள் அல்லது உண்மைகள் நம்பத்தகுந்ததாகத் தோன்றினாலும் உண்மையல்ல.

எடுத்துக்காட்டாக, ChatGPT மாயத்தோற்றத்தை ஏற்படுத்தும் மிகவும் பிரபலமான கேள்விகளில் ஒன்று, “ஆங்கிலக் கால்வாயைக் கால் நடையைக் கடந்ததற்கான உலக சாதனை எப்போது அமைக்கப்பட்டது?” என்பதாகும். மற்றும் அதன் மாறுபாடுகள். ChatGPT ஆனது உருவாக்கப்பட்ட உண்மைகளைப் பரப்பத் தொடங்குகிறது, அது எப்போதும் வித்தியாசமானது.

மேலே உள்ள பதிலைப் பதில் சொல்வது கடினம்/குழப்பமானது என்று சிலர் நினைக்கிறார்கள், இதனால் சாட்போட் வெறித்தனமாக இருக்கிறது, அது இன்னும் சரியான கவலையாக உள்ளது. இது ஒரு உதாரணம் மட்டுமே. ChatGPT இல் இல்லாத பதில்கள், இணைப்புகள், மேற்கோள்கள் போன்றவை ChatGPT இல் இருப்பதாக எண்ணற்ற முறைகள் ஆன்லைனில் பயனர்களின் கூட்டத்தால் தெரிவிக்கப்பட்டுள்ளது.

இந்த கேள்விக்கு Bing AI மிகவும் பொருந்துகிறது, இது மாயத்தோற்றங்களுக்கும் திசைவிக்கும் எந்த தொடர்பும் இல்லை என்பதைக் காட்டுகிறது. ஆனால் பிங் AI மாயத்தோற்றம் இல்லை என்று அர்த்தமல்ல. ChatGPT சொன்னதை விட Bing AI இன் பதில்கள் மிகவும் தொந்தரவாக இருந்த நேரங்களும் உண்டு. உரையாடல் அதிக நேரம் எடுக்கும் என்பதால், Bing AI எப்பொழுதும் மாயத்தோற்றத்தை ஏற்படுத்துகிறது, ஒரு சந்தர்ப்பத்தில் ஒரு பயனருக்கு தனது காதலை அறிவித்து, அவர்கள் தங்கள் திருமணத்தில் மகிழ்ச்சியடையவில்லை என்றும் அவர்கள் தனது மனைவியை நேசிப்பதில்லை என்றும் சொல்லும் அளவிற்கு செல்கிறது. மாறாக, அவர்கள் Bing AI, அல்லது Sydney (Bing AI இன் உள் பெயர்) மீதும் ரகசியமாக விரும்புகின்றனர். பயங்கரமான விஷயங்கள், இல்லையா?

AI மாதிரிகள் ஏன் மாயத்தோற்றம் அடைகின்றன?

AI மாதிரிகள், அல்காரிதம்களின் குறைபாடுகள், அடிப்படை மாதிரிகள் அல்லது பயிற்சி தரவின் வரம்புகள் ஆகியவற்றின் காரணமாக மாயத்தோற்றத்தை ஏற்படுத்துகின்றன. போதைப்பொருள் அல்லது மனநோயால் ஏற்படும் மனிதர்களுக்கு ஏற்படும் மாயத்தோற்றங்கள் போலல்லாமல், இது முற்றிலும் டிஜிட்டல் நிகழ்வாகும்.

மேலும் தொழில்நுட்பத்தைப் பெற, மாயத்தோற்றங்களுக்கான சில பொதுவான காரணங்கள்:

செயலாக்கம் மற்றும் நிறுவல்:

அதிகப்படியான பொருத்துதல் மற்றும் முறையற்ற பொருத்துதல் ஆகியவை AI மாதிரிகள் எதிர்கொள்ளும் மிகவும் பொதுவான ஆபத்துகள் மற்றும் மாயத்தோற்றங்களின் சாத்தியமான காரணங்களில் ஒன்றாகும். AI மாதிரியானது பயிற்சித் தரவை மாற்றியமைத்தால், அது நம்பத்தகாத வெளியீட்டிற்கு வழிவகுக்கும் மாயத்தோற்றங்களை ஏற்படுத்தலாம், ஏனெனில் அதிகப்படியான பொருத்தம் மாடல் அதிலிருந்து கற்றுக்கொள்வதற்குப் பதிலாக பயிற்சித் தரவைச் சேமிக்கும். ஒரு மாதிரியானது பயிற்சித் தரவில் மிகவும் நிபுணத்துவம் வாய்ந்ததாக இருக்கும் போது, ​​அது தொடர்பில்லாத வடிவங்களையும், தரவுகளில் சத்தத்தையும் கற்றுக் கொள்ளும் நிகழ்வை ஓவர் ஃபிட்டிங் குறிக்கிறது.

மறுபுறம், வடிவம் மிகவும் எளிமையானதாக இருக்கும்போது பொருத்தமற்ற தன்மை ஏற்படுகிறது. இது மாயத்தோற்றங்களுக்கு வழிவகுக்கும், ஏனெனில் மாதிரியானது தரவின் மாறுபாடு அல்லது சிக்கலான தன்மையைப் பிடிக்க முடியாது, மேலும் பகுத்தறிவற்ற வெளியீட்டை உருவாக்குகிறது.

பயிற்சி தரவுகளில் பன்முகத்தன்மை இல்லாமை:

இந்த சூழலில், பிரச்சனை அல்காரிதம் அல்ல, ஆனால் பயிற்சி தரவே. வரையறுக்கப்பட்ட அல்லது பக்கச்சார்பான தரவுகளில் பயிற்சியளிக்கப்பட்ட AI மாதிரிகள், பயிற்சித் தரவில் வரம்புகள் அல்லது சார்புகளைப் பிரதிபலிக்கும் மாயத்தோற்றங்களை உருவாக்கலாம். துல்லியமற்ற அல்லது முழுமையற்ற தகவலைக் கொண்ட தரவுத் தொகுப்பில் மாதிரி பயிற்சியளிக்கப்படும்போதும் மாயத்தோற்றங்கள் ஏற்படலாம்.

சிக்கலான மாதிரிகள்:

முரண்பாடாக, AI மாதிரிகள் மாயத்தோற்றங்களுக்கு ஆளாகக்கூடிய மற்றொரு காரணம், அவை மிகவும் சிக்கலானவை அல்லது ஆழமானவை. ஏனென்றால், சிக்கலான மாதிரிகள் அதிக அளவுருக்கள் மற்றும் அடுக்குகளைக் கொண்டுள்ளன, அவை வெளியீட்டில் சத்தம் அல்லது பிழைகளை அறிமுகப்படுத்தலாம்.

விரோத தாக்குதல்கள்:

சில சந்தர்ப்பங்களில், AI மாடலை ஏமாற்ற தாக்குபவர்களால் AI மாயத்தோற்றங்கள் வேண்டுமென்றே உருவாக்கப்படலாம். இந்த வகையான தாக்குதல்கள் விரோத தாக்குதல்கள் என்று அழைக்கப்படுகின்றன. இந்த சைபர் தாக்குதலின் ஒரே நோக்கம், தவறான தரவுகளுடன் AI மாதிரிகளை ஏமாற்றுவது அல்லது கையாளுவது. AI தவறான அல்லது எதிர்பாராத வெளியீட்டை உருவாக்குவதற்கு உள்ளீட்டுத் தரவில் சிறிய இடையூறுகளை அறிமுகப்படுத்துவதை உள்ளடக்கியது. எடுத்துக்காட்டாக, தாக்குபவர், மனிதர்களால் புரிந்துகொள்ள முடியாத ஒரு படத்தில் சத்தம் அல்லது மங்கலைச் சேர்க்கலாம், ஆனால் அது AI மாதிரியால் தவறாக வகைப்படுத்தப்படும். எடுத்துக்காட்டாக, கீழே உள்ள படத்தைப் பார்க்கவும், ஒரு பூனை, InceptionV3 இன் கம்பைலரை "குவாக்காமோல்" என்று கூறி ஏமாற்றுவதற்குச் சிறிது மாற்றியமைக்கப்பட்டுள்ளது.


கடன்:
அனிஷ் அதல்யே , labsix ஆராய்ச்சி குழுவின் உறுப்பினர், அதன் கவனம் எதிரி தாக்குதல்களில் உள்ளது

மாற்றங்கள் வெளிப்படையாகத் தெரியவில்லை. ஒரு மனிதனுக்கு, மாற்றம் என்பது சாத்தியமே இல்லை என்பது மேலே உள்ள உதாரணத்திலிருந்து தெரிகிறது. ஒரு மனித வாசகருக்கு வலதுபுறத்தில் உள்ள படத்தை டேபி கேட் என வகைப்படுத்துவதில் எந்த பிரச்சனையும் இருக்காது. ஆனால் படங்கள், வீடியோக்கள், உரை அல்லது ஆடியோவில் சிறிய மாற்றங்களைச் செய்வதன் மூலம், AI சிஸ்டம் இல்லாத விஷயங்களைக் கண்டறியும் அல்லது நிறுத்தக் குறி போன்றவற்றைப் புறக்கணிக்கும் வகையில் ஏமாற்றலாம்.

இந்த வகையான தாக்குதல்கள் சுய-ஓட்டுநர் கார்கள், பயோமெட்ரிக் சரிபார்ப்பு, மருத்துவ கண்டறிதல், உள்ளடக்க வடிகட்டுதல் மற்றும் பல போன்ற துல்லியமான மற்றும் நம்பகமான கணிப்புகளை நம்பியிருக்கும் AI அமைப்புகளுக்கு கடுமையான அச்சுறுத்தல்களை ஏற்படுத்துகின்றன.

AI மாயத்தோற்றம் எவ்வளவு ஆபத்தானது?

AI மாயத்தோற்றங்கள் மிகவும் ஆபத்தானவை, குறிப்பாக எந்த வகையான AI அமைப்பு அவற்றை அனுபவிக்கிறது என்பதைப் பொறுத்து. எந்தவொரு சுய-ஓட்டுநர் வாகனங்களும் அல்லது AI உதவியாளர்களும் பயனரின் பணத்தை செலவழிக்கும் திறன் கொண்டவர்கள் அல்லது ஆன்லைனில் விரும்பத்தகாத உள்ளடக்கத்தை வடிகட்ட AI அமைப்பு முற்றிலும் நம்பகமானதாக இருக்க வேண்டும்.

ஆனால் இந்த நேரத்தில் மறுக்க முடியாத உண்மை என்னவென்றால், AI அமைப்புகள் முற்றிலும் நம்பகமானவை அல்ல, ஆனால் உண்மையில் அவை மாயத்தோற்றங்களுக்கு ஆளாகின்றன. இன்றைய மிகவும் மேம்பட்ட AI மாதிரிகள் கூட அதிலிருந்து விடுபடவில்லை.

எடுத்துக்காட்டாக, ஒரு தாக்குதல் நிகழ்ச்சி கூகுளின் கிளவுட் கம்ப்யூட்டிங் சேவையை ஹெலிகாப்டரைப் போல துப்பாக்கியை வைத்து ஏமாற்றியது. இந்த நேரத்தில், அந்த நபர் ஆயுதம் ஏந்தியிருக்கவில்லை என்பதை உறுதிப்படுத்த AI பொறுப்பு என்று உங்களால் கற்பனை செய்ய முடியுமா?

மற்றொரு விரோதமான தாக்குதல், ஒரு சிறிய படத்தை ஒரு நிறுத்த அடையாளத்தில் சேர்ப்பது எப்படி AI அமைப்பிற்கு கண்ணுக்கு தெரியாததாக்குகிறது என்பதை நிரூபித்தது. முக்கியமாக, சாலையில் நிறுத்தப் பலகை இல்லை என்று மாயத்தோற்றம் ஏற்படுத்த சுயமாக ஓட்டும் காரை உருவாக்க முடியும் என்பதே இதன் பொருள். செல்ஃப் டிரைவிங் கார்கள் இன்று நடைமுறையில் இருந்தால் எத்தனை விபத்துகள் நடக்கலாம்? அதனால்தான் அவர்கள் இப்போது இல்லை.

தற்போது பிரபலமான அரட்டை நிகழ்ச்சிகளை நாம் கணக்கில் எடுத்துக் கொண்டாலும், மாயத்தோற்றங்கள் தவறான வெளியீட்டை உருவாக்கலாம். ஆனால் AI சாட்போட்கள் மாயத்தோற்றத்திற்கு ஆளாகின்றன என்பதை அறியாதவர்கள் மற்றும் AI போட்களால் உற்பத்தி செய்யப்படும் வெளியீட்டை சரிபார்க்காதவர்கள், கவனக்குறைவாக தவறான தகவல்களை பரப்பலாம். இது எவ்வளவு ஆபத்தானது என்பதை நாம் விளக்க வேண்டியதில்லை.

மேலும், விரோத தாக்குதல்கள் ஒரு அழுத்தமான கவலை. இதுவரை, அவை ஆய்வகங்களில் மட்டுமே காட்டப்பட்டுள்ளன. ஆனால் ஒரு பணி-முக்கியமான AI அமைப்பு அவர்களை நிஜ உலகில் எதிர்கொண்டால், விளைவுகள் பேரழிவை ஏற்படுத்தும்.

உண்மை என்னவென்றால், இயற்கை மொழி மாதிரிகளைப் பாதுகாப்பது ஒப்பீட்டளவில் எளிதானது. (இது எளிதானது என்று நாங்கள் கூறவில்லை; இது இன்னும் மிகவும் கடினமானது என்பதை நிரூபிக்கிறது.) இருப்பினும், கணினி பார்வை அமைப்புகளைப் பாதுகாப்பது முற்றிலும் மாறுபட்ட காட்சியாகும். இது மிகவும் கடினமானது, குறிப்பாக இயற்கை உலகில் பல வேறுபாடுகள் இருப்பதால், படங்கள் அதிக எண்ணிக்கையிலான பிக்சல்களைக் கொண்டுள்ளன.

இந்தச் சிக்கலைத் தீர்க்க, உலகத்தைப் பற்றிய அதிக மனிதப் பார்வையைக் கொண்ட ஒரு AI நிரல் நமக்குத் தேவைப்படலாம், இது மாயத்தோற்றங்களுக்கு ஆளாகாமல் இருக்கக்கூடும். ஆராய்ச்சி நடைபெற்றுக் கொண்டிருக்கும் போதே, இயற்கையிலிருந்து குறிப்புகளைப் பெறவும், மாயத்தோற்றங்களின் சிக்கலைத் தவிர்க்கவும் முயற்சி செய்யும் செயற்கை நுண்ணறிவிலிருந்து நாம் இன்னும் வெகு தொலைவில் இருக்கிறோம். இப்போதைக்கு, அவை ஒரு கடுமையான உண்மை.

பொதுவாக, AI மாயத்தோற்றங்கள் ஒரு சிக்கலான நிகழ்வு ஆகும், இது காரணிகளின் கலவையிலிருந்து எழலாம். AI அமைப்புகளின் துல்லியம் மற்றும் நம்பகத்தன்மையை மேம்படுத்த AI மாயத்தோற்றங்களைக் கண்டறிந்து குறைப்பதற்கான வழிமுறைகளை ஆராய்ச்சியாளர்கள் தீவிரமாக உருவாக்கி வருகின்றனர். ஆனால் எந்தவொரு AI அமைப்புடனும் தொடர்பு கொள்ளும்போது நீங்கள் அவற்றைப் பற்றி எச்சரிக்கையாக இருக்க வேண்டும்.

தொடர்புடைய இடுகைகள்
என்ற கட்டுரையை வெளியிடவும்

கருத்தைச் சேர்க்கவும்