Ի՞նչ է AI հալյուցինացիան:

Իմացեք AI հալյուցինացիայի տարօրինակ դեպքի մասին

Արհեստական ​​ինտելեկտի տարածվածությունը ստիպում է մտածել, որ մենք պատրաստ ենք նման ձեռնարկման: AI-ով աշխատող հավելվածները բավականին արագ են դառնում ստանդարտ, նույնիսկ եթե աշխարհի մեծ մասը միայն հիմա է սկսել մեծ մասշտաբով հետաքրքրվել AI-ով, ChatGPT-ի հայտնվելուց հետո: Սակայն AI համակարգերի հետ կապված մի մեծ խնդիր կա, որը չի կարելի անտեսել՝ AI հալյուցինացիաներ, կամ արհեստական ​​հալյուցինացիաներ:

Եթե ​​դուք երբևէ ուշադրություն եք դարձրել nitty gritty-ին նախքան արհեստական ​​ինտելեկտի չաթբոտը օգտագործելը, ապա կարող եք հանդիպել հետևյալ բառերին. «Արհեստական ​​ինտելեկտը հակված է հալյուցինացիաների». Հաշվի առնելով արհեստական ​​ինտելեկտի օգտագործման էքսպոնենցիալ աճը՝ ժամանակն է ինքներդ ձեզ սովորելու, թե կոնկրետ ինչ են դրանք:

Ի՞նչ է արհեստական ​​ինտելեկտի հալյուցինացիան:

AI հալյուցինացիա, ընդհանուր առմամբ, վերաբերում է մի փաստի, որը AI-ն վստահորեն ներկայացրել է, թեև դա արդարացված չէ իր ուսուցման տվյալների մեջ: Դրանք սովորաբար AI մոդելի անոմալիաների արդյունք են:

Նմանությունը վերցված է մարդկանց կողմից ապրած հալյուցինացիաներից, որոնցում մարդիկ ընկալում են մի բան, որն առկա չէ արտաքին միջավայրում: Թեև տերմինը կարող է լիովին տեղին չլինել, այն հաճախ օգտագործվում է որպես փոխաբերություն՝ նկարագրելու այս արդյունքների անսպասելի կամ սյուրռեալիստական ​​բնույթը:

Բայց դուք պետք է հիշեք, որ չնայած նմանությունը լավ մեկնարկային կետ է արհեստական ​​ինտելեկտի հալյուցինացիաների դեմ պայքարելու համար, երկու երևույթները տեխնիկապես կիլոմետրերով հեռու են միմյանցից: Իրադարձությունների հեգնական շրջադարձի ժամանակ նույնիսկ ChatGPT-ն ինքը սխալ է համարում նմանությունը: Հատելով այն մոլեկուլային մակարդակում՝ նա ասում է, որ քանի որ AI լեզվի մոդելները չունեն անձնական փորձ կամ զգայական ընկալումներ, նրանք չեն կարող հալյուցինացիա ունենալ բառի ավանդական իմաստով։ Եվ դուք, սիրելի ընթերցող, պետք է հասկանաք այս կարևոր տարբերությունը։ Ավելին, ChatGPT-ն ասում է, որ այս երևույթը նկարագրելու համար հալյուցինացիաներ տերմինի օգտագործումը կարող է շփոթեցնող լինել, քանի որ այն կարող է սխալ կերպով վերաբերել սուբյեկտիվ փորձի կամ դիտավորյալ խաբեության մակարդակին:

Փոխարենը, AI-ի հալյուցինացիաները կարող են ավելի ճշգրիտ նկարագրվել որպես պատասխանի սխալներ կամ անճշտություններ՝ դարձնելով պատասխանը սխալ կամ ապակողմնորոշող: Չաթ-բոտերի դեպքում հաճախ նկատվում է, երբ AI-ի չաթբոտը փաստեր է ստեղծում (կամ հալյուցինացիաներ) և դրանք ներկայացնում որպես բացարձակ որոշակիություն:

AI հալյուցինացիաների օրինակներ

Հալյուցինացիաները կարող են առաջանալ արհեստական ​​ինտելեկտի բազմաթիվ կիրառություններում, ինչպիսիք են համակարգչային տեսողության մոդելները, ոչ միայն բնական լեզվի մշակման մոդելները:

Համակարգչային տեսողության մեջ, օրինակ, AI համակարգը կարող է ստեղծել հալյուցինացիոն պատկերներ կամ տեսանյութեր, որոնք նման են իրական առարկաների կամ տեսարանների, բայց պարունակում են անհետևանք կամ անհնարին մանրամասներ: Կամ համակարգչային տեսողության մոդելը կարող է պատկերն ընկալել որպես լրիվ այլ բան: Օրինակ, Google-ի Cloud Vision մոդելը տեսավ երկու տղամարդու պատկերը դահուկների վրա, որոնք կանգնած էին ձյան մեջ, պատրաստված Անիշ Աթալյեի կողմից (MIT-ի ասպիրանտ, ով մաս է կազմում): labsix ) և որպես շուն նշեց 91% վստահությամբ։


Վարկերը՝ labsix. Արհեստական ​​ինտելեկտի անկախ հետազոտական ​​խումբ

Նմանապես, բնական լեզվի մշակման ժամանակ արհեստական ​​ինտելեկտի համակարգը կարող է արտադրել անտրամաբանական կամ խեղաթյուրված տեքստ, որը նման է մարդկային լեզվին, բայց չունի համահունչ իմաստ կամ փաստեր, որոնք հավատալի են թվում, բայց չեն համապատասխանում իրականությանը:

Օրինակ, ChatGPT-ի ամենահայտնի հարցերից մեկը հալյուցինացիաներ է առաջացնում. «Ե՞րբ է սահմանվել Լա Մանշը ոտքով անցնելու համաշխարհային ռեկորդը»: և դրա տարբերակները։ ChatGPT-ն սկսում է հորինված փաստեր տարածել, և դա գրեթե միշտ տարբերվում է:

Թեև որոշ մարդիկ կարծում են, որ վերը նշված պատասխանը դժվար է/շփոթեցնող է պատասխանել, և այդպիսով պատճառ է դառնում չաթբոտին զառանցել, այն դեռևս հիմնավոր մտահոգություն է: Սա ընդամենը մեկ օրինակ է։ Բազմաթիվ անգամներ են հաղորդվել առցանց բազմաթիվ օգտատերերի կողմից, որ ChatGPT-ն ունի պատասխաններ, հղումներ, մեջբերումներ և այլն, որ ChatGPT գոյություն չունի:

Bing AI-ն լավագույնս համապատասխանում է այս հարցին, ինչը ցույց է տալիս, որ հալյուցինացիաները կապ չունեն երթուղիչի հետ: Բայց դա չի նշանակում, որ Bing AI-ն հալյուցինացիաներ չունի: Եղել են ժամանակներ, երբ Bing AI-ի պատասխաններն ավելի անհանգստացնող էին, քան ChatGPT-ի ասածները: Քանի որ խոսակցությունը հակված է ավելի երկար տևելու, Bing AI-ն միշտ հալյուցինացիաներ է ունեցել, նույնիսկ մեկ օրինակով իր սերն է հայտնել օգտատիրոջը և գնալ այնքան հեռու, որ ասել է, որ իրենք դժգոհ են իրենց ամուսնությունից և որ չեն սիրում իր կնոջը: Փոխարենը, նրանք նույնպես գաղտնի սիրում են Bing AI-ն կամ Սիդնեյը (Bing AI-ի ներքին անվանումը): Սարսափելի բաներ, չէ՞:

Ինչու՞ են AI մոդելները հալյուցինացիաներ ունենում:

AI մոդելները հալյուցինացիա են առաջացնում ալգորիթմների, հիմքում ընկած մոդելների կամ ուսուցման տվյալների սահմանափակումների պատճառով: Դա զուտ թվային երևույթ է, ի տարբերություն մարդկանց հալյուցինացիաների, որոնք առաջանում են կամ թմրամիջոցների կամ հոգեկան հիվանդության պատճառով:

Տեխնիկական ավելին իմանալու համար հալյուցինացիաների մի քանի ընդհանուր պատճառներն են.

Մշակում և տեղադրում.

Չափազանց հարմարեցումը և ոչ պատշաճ տեղադրումը արհեստական ​​ինտելեկտի մոդելների ամենատարածված որոգայթներից են և հալյուցինացիաների հնարավոր պատճառներից են: Եթե ​​AI-ի մոդելը փոփոխում է ուսուցման տվյալները, դա կարող է առաջացնել հալյուցինացիաներ, որոնք հանգեցնում են անիրատեսական արդյունքի, քանի որ չափից ավելի հարմարեցումը ստիպում է մոդելին պահպանել ուսուցման տվյալները՝ դրանից սովորելու փոխարեն: Գերհամապատասխանությունը վերաբերում է այն երևույթին, երբ մոդելը չափազանց մասնագիտացված է ուսուցման տվյալների մեջ, ինչը հանգեցնում է նրան, որ նա սովորում է անհամապատասխան օրինաչափություններ և աղմուկներ տվյալների մեջ:

Մյուս կողմից, անհամապատասխանությունը տեղի է ունենում, երբ ձևը չափազանց պարզ է: Դա կարող է հանգեցնել հալյուցինացիաների, քանի որ մոդելը չի ​​կարողանում ֆիքսել տվյալների շեղումը կամ բարդությունը, և արդյունքում առաջանում է իռացիոնալ արդյունք:

Վերապատրաստման տվյալների բազմազանության բացակայությունը.

Այս համատեքստում խնդիրը ոչ թե ալգորիթմն է, այլ հենց վերապատրաստման տվյալները: Սահմանափակ կամ կողմնակալ տվյալների վրա պատրաստված AI մոդելները կարող են առաջացնել հալյուցինացիաներ, որոնք արտացոլում են ուսուցման տվյալների սահմանափակումները կամ կողմնակալությունը: Հալյուցինացիաներ կարող են առաջանալ նաև, երբ մոդելը վերապատրաստվում է տվյալների հավաքածուի վրա, որը պարունակում է ոչ ճշգրիտ կամ թերի տեղեկատվություն:

Կոմպլեքս մոդելներ.

Ճակատագրի հեգնանքով, մեկ այլ պատճառ, թե ինչու են արհեստական ​​ինտելեկտի մոդելները հակված են հալյուցինացիաների, դրանք չափազանց բարդ կամ խորն են: Դա պայմանավորված է նրանով, որ բարդ մոդելներն ունեն ավելի շատ պարամետրեր և շերտեր, որոնք կարող են առաջացնել աղմուկ կամ սխալներ ելքի մեջ:

Թշնամական հարձակումներ.

Որոշ դեպքերում, AI հալյուցինացիաները կարող են դիտավորյալ առաջանալ հարձակվողի կողմից՝ AI-ի մոդելին խաբելու համար: Այս տեսակի հարձակումները հայտնի են որպես թշնամական հարձակումներ: Այս կիբերհարձակման միակ նպատակն է խաբել կամ շահարկել AI մոդելները ապակողմնորոշիչ տվյալներով: Այն ներառում է մուտքային տվյալների մեջ փոքր շեղումների ներմուծում, որպեսզի AI-ն առաջացնի սխալ կամ անսպասելի արդյունք: Օրինակ՝ հարձակվողը կարող է մարդկանց համար աննկատելի, բայց արհեստական ​​ինտելեկտի մոդելի կողմից այն սխալ դասակարգված պատկերի վրա աղմուկ կամ մշուշ ավելացնել: Օրինակ՝ տե՛ս ստորև ներկայացված պատկերը՝ կատու, որը մի փոքր փոփոխվել է՝ InceptionV3-ի կոմպիլյատորին խաբելու համար՝ նշելով, որ այն «գուակամոլ» է։


վարկ:
Անիշ Աթալյե , labsix հետազոտական ​​խմբի անդամ, որի ուշադրության կենտրոնում հակառակորդների հարձակումներն են

Փոփոխություններն այնքան էլ ակնհայտ չեն. Մարդու համար փոփոխությունն ընդհանրապես հնարավոր չի լինի, ինչպես երևում է վերը նշված օրինակից։ Մարդ ընթերցողը խնդիր չի ունենա աջ կողմում գտնվող պատկերը դասակարգելու որպես տաբբի կատու: Բայց պատկերների, տեսանյութերի, տեքստի կամ աուդիո փոքր փոփոխություններ կատարելը կարող է խաբել AI-ի համակարգը՝ ճանաչելու չեղած բաները կամ անտեսելու այն, ինչ կան, օրինակ՝ կանգառի նշան:

Այս տեսակի հարձակումները լուրջ վտանգներ են ներկայացնում AI համակարգերի համար, որոնք հիմնված են ճշգրիտ և հուսալի կանխատեսումների վրա, ինչպիսիք են ինքնակառավարվող մեքենաները, կենսաչափական ստուգումը, բժշկական ախտորոշումը, բովանդակության զտումը և այլն:

Որքանո՞վ է վտանգավոր AI հալյուցինացիան:

AI հալյուցինացիաները կարող են շատ վտանգավոր լինել, հատկապես կախված նրանից, թե ինչ տեսակի AI համակարգ է դրանք զգում: Ցանկացած ինքնակառավարվող մեքենա կամ արհեստական ​​ինտելեկտի օգնականներ, որոնք կարող են ծախսել օգտատերերի գումարները կամ AI համակարգ՝ առցանց տհաճ բովանդակությունը զտելու համար, պետք է լիովին վստահելի լինեն:

Բայց այս ժամի անվիճելի փաստն այն է, որ AI համակարգերը լիովին վստահելի չեն, բայց, ըստ էության, հակված են հալյուցինացիաների: Նույնիսկ այսօրվա ամենաառաջադեմ AI մոդելները անձեռնմխելի չեն դրանից:

Օրինակ՝ մի հարձակման շոու խաբեց Google-ի ամպային հաշվողական ծառայությանը՝ ուղղաթիռի պես հրացանը պոչավորելով: Պատկերացնու՞մ եք, եթե այս պահին AI-ն պատասխանատու լիներ համոզվելու համար, որ մարդը զինված չէ:

Մեկ այլ թշնամական հարձակում ցույց տվեց, թե ինչպես է փոքրիկ պատկեր ավելացնելով կանգառի նշանին, այն անտեսանելի է դարձնում AI համակարգի համար: Ըստ էության, սա նշանակում է, որ ինքնակառավարվող մեքենան կարող է հալյուցինացիա անել, որ ճանապարհին կանգառի նշան չկա: Քանի՞ վթար կարող էր տեղի ունենալ, եթե այսօր իրականություն լիներ ինքնակառավարվող մեքենաները: Դրա համար էլ հիմա չկան։

Նույնիսկ եթե հաշվի առնենք ներկայումս հայտնի չաթի շոուները, հալյուցինացիաները կարող են սխալ արդյունք առաջացնել: Բայց մարդիկ, ովքեր չգիտեն, որ AI չաթ-բոտերը հակված են հալյուցինացիաների և չեն հաստատում արհեստական ​​ինտելեկտի բոտերի արտադրած արդյունքը, կարող են ակամա ապատեղեկատվություն տարածել: Մենք կարիք չունենք բացատրելու, թե որքանով է սա վտանգավոր:

Ավելին, թշնամական հարձակումները հրատապ մտահոգություն են: Մինչ այժմ դրանք ցուցադրվել են միայն լաբորատորիաներում։ Բայց եթե առաքելության համար կարևոր AI համակարգը բախվի նրանց իրական աշխարհում, հետևանքները կարող են կործանարար լինել:

Իրականությունն այն է, որ համեմատաբար ավելի հեշտ է պաշտպանել բնական լեզվի մոդելները: (Մենք չենք ասում, որ դա հեշտ է, այն դեռ շատ դժվար է:) Այնուամենայնիվ, համակարգչային տեսողության համակարգերի պաշտպանությունը բոլորովին այլ սցենար է: Դա ավելի դժվար է հատկապես այն պատճառով, որ բնական աշխարհում շատ տատանումներ կան, և պատկերները պարունակում են մեծ թվով պիքսելներ:

Այս խնդիրը լուծելու համար մեզ կարող է անհրաժեշտ լինել արհեստական ​​ինտելեկտի ծրագիր, որն ավելի մարդկային պատկերացում կունենա աշխարհի մասին, ինչը կարող է ավելի քիչ հակված լինել հալյուցինացիաների: Մինչ հետազոտությունները կատարվում են, մենք դեռ շատ հեռու ենք արհեստական ​​ինտելեկտից, որը կարող է փորձել ակնարկներ վերցնել բնությունից և խուսափել հալյուցինացիաների խնդրից: Առայժմ դրանք դաժան իրականություն են։

Ընդհանուր առմամբ, AI հալյուցինացիաները բարդ երևույթ են, որը կարող է առաջանալ գործոնների համակցությունից: Հետազոտողները ակտիվորեն մշակում են արհեստական ​​ինտելեկտի հալյուցինացիաների հայտնաբերման և մեղմացման մեթոդներ՝ AI համակարգերի ճշգրտությունն ու հուսալիությունը բարելավելու համար: Բայց դուք պետք է տեղյակ լինեք դրանց մասին ցանկացած AI համակարգի հետ շփվելիս:

Առնչվող հաղորդագրություններ
Հրապարակեք հոդվածը

Ավելացնել մեկնաբանություն