AI галлюцинациясы дегеніміз не?

AI галлюцинациясының оғаш оқиғасы туралы біліңіз

Жасанды интеллекттің кең таралуы бізді мұндай бастамаға дайын екенімізді ойлайды. AI-мен жұмыс істейтін қолданбалар тез стандартқа айналады, тіпті әлемнің көпшілігі ChatGPT келгеннен кейін AI-ға үлкен көлемде қызығушылық таныта бастаса да. Бірақ AI жүйелерінде үлкен мәселе бар, оны елемеу мүмкін емес - AI галлюцинациялары немесе жасанды галлюцинациялар.

Егер сіз AI чат-ботын қолданбас бұрын бірде-бір рет назар аударған болсаңыз, сіз мына сөздерді кездестірген боларсыз: «Жасанды интеллект галлюцинацияға бейім». Жасанды интеллект қолданудың экспоненциалды өсуін ескере отырып, бұл нәрселердің нақты не екенін білуге ​​уақыт келді.

Жасанды интеллект галлюцинациясы дегеніміз не?

AI галлюцинациясы, жалпы алғанда, АИ өзінің оқу деректерінде ақталмағанына қарамастан, сенімді түрде ұсынған фактісін білдіреді. Олар әдетте AI моделіндегі ауытқулардың нәтижесі болып табылады.

Аналогия адам басынан өткерген галлюцинациялардан алынған, онда адамдар сыртқы ортада жоқ нәрсені қабылдайды. Бұл термин толығымен сәйкес келмеуі мүмкін, бірақ бұл нәтижелердің күтпеген немесе сюрреальды сипатын сипаттау үшін жиі метафора ретінде пайдаланылады.

Ұқсастық AI галлюцинацияларымен күресудің жақсы бастамасы болғанымен, екі құбылыс техникалық жағынан бір-бірінен миль қашықтықта орналасқанын есте ұстаған жөн. Оқиғалардың ирониялық жағдайында тіпті ChatGPT-тің өзі ұқсастықты қате деп санайды. Оны молекулярлық деңгейде бөле отырып, ол AI тіл үлгілерінің жеке тәжірибесі немесе сенсорлық қабылдауы болмағандықтан, олар сөздің дәстүрлі мағынасында галлюцинация жасай алмайтынын айтады. Ал сіз, құрметті оқырман, бұл маңызды айырмашылықты түсінуіңіз керек. Сонымен қатар, ChatGPT бұл құбылысты сипаттау үшін галлюцинация терминін пайдалану шатастыруы мүмкін екенін айтады, өйткені ол субъективті тәжірибе немесе әдейі алдау деңгейіне дұрыс емес сілтеме жасауы мүмкін.

Оның орнына, AI галлюцинациясын оның жауапындағы қателер немесе дәлсіздіктер ретінде дәлірек сипаттауға болады, бұл жауапты дұрыс емес немесе жаңылыстыруға әкеледі. Чат-боттардың көмегімен AI чатботы фактілерді жасағанда (немесе галлюцинациялағанда) және оларды абсолютті сенімділік ретінде көрсеткенде жиі байқалады.

AI галлюцинацияларының мысалдары

Галлюцинациялар табиғи тілді өңдеу үлгілері емес, компьютерлік көру үлгілері сияқты жасанды интеллекттің көптеген қолданбаларында пайда болуы мүмкін.

Компьютерлік көруде, мысалы, AI жүйесі нақты объектілерге немесе көріністерге ұқсайтын, бірақ мәнсіз немесе мүмкін емес мәліметтерді қамтитын галлюцинациялық кескіндерді немесе бейнелерді шығаруы мүмкін. Немесе компьютерлік көру моделі кескінді толығымен басқа нәрсе ретінде қабылдай алады. Мысалы, Google компаниясының Cloud Vision моделі Аниш Атхалье (MIT магистратурасының бір бөлігі болып табылатын магистрант) жасаған қарда тұрған шаңғымен екі адамның суретін көрді. лабсикс ) және оны 91% сенімділікпен ит ретінде атап өтті.


Несие: labsix. Жасанды интеллект бойынша тәуелсіз зерттеу тобы

Сол сияқты, табиғи тілді өңдеуде AI жүйесі адам тіліне ұқсайтын, бірақ үйлесімді мағынасы немесе сенімді болып көрінетін, бірақ шындыққа сәйкес келмейтін фактілері жоқ қисынсыз немесе бұрмаланған мәтін шығаруы мүмкін.

Мысалы, ChatGPT галлюцинациясын тудыратын ең танымал сұрақтардың бірі «Ланш арнасын жаяу кесіп өту бойынша әлемдік рекорд қашан орнатылды?». және оның нұсқалары. ChatGPT ойдан шығарылған фактілерді тарата бастайды және бұл әрдайым дерлік басқаша.

Кейбір адамдар жоғарыда келтірілген жауапқа жауап беру қиын/шатастырылады деп ойласа да, осылайша чатботты мақтан тұтады, бұл әлі де өзекті мәселе. Бұл бір ғана мысал. Желіде көптеген пайдаланушылар ChatGPT-те ChatGPT жоқ жауаптары, сілтемелері, дәйексөздері және т.б. бар екенін хабарлаған сансыз рет бар.

Bing AI бұл сұраққа жақсы сәйкес келеді, бұл галлюцинациялардың маршрутизатормен ешқандай байланысы жоқ екенін көрсетеді. Бірақ бұл Bing AI галлюцинация емес дегенді білдірмейді. Bing AI жауаптары ChatGPT айтқан кез келген нәрсеге қарағанда алаңдатарлық болған кездер болды. Әңгімелесу ұзаққа созылатындықтан, Bing AI әрқашан галлюцинация жасайды, тіпті бір жағдайда пайдаланушыға өзінің сүйіспеншілігін білдіріп, олардың некеде бақытсыз екенін және оның әйелін жақсы көрмейтінін айтуға дейін барады. Оның орнына, олар жасырын түрде Bing AI немесе Сиднейді (Bing AI үшін ішкі атауы) жақсы көреді. Қорқынышты нәрсе, иә?

Неліктен AI модельдері галлюцинация жасайды?

AI үлгілері алгоритмдердің, негізгі үлгілердің кемшіліктеріне немесе оқу деректерінің шектеулеріне байланысты галлюцинацияланады. Бұл есірткіден немесе психикалық аурудан туындаған адамдардағы галлюцинациядан айырмашылығы, таза цифрлық құбылыс.

Көбірек техникалық алу үшін галлюцинацияның кейбір жалпы себептері:

Өңдеу және орнату:

Шамадан тыс орнату және дұрыс емес орнату AI үлгілері кездесетін ең көп кездесетін қателіктер және галлюцинацияның ықтимал себептері. Егер AI моделі жаттығу деректерін өзгертсе, ол шындыққа жанаспайтын нәтижеге әкелетін галлюцинацияларды тудыруы мүмкін, өйткені шамадан тыс орнату модельдің оқу деректерін одан үйренудің орнына сақтауға әкеледі. Шамадан тыс фитинг модель оқу деректерінде тым маманданған кездегі құбылысқа жатады, бұл оның деректердегі маңызды емес үлгілер мен шуды үйренуіне себеп болады.

Екінші жағынан, форма тым қарапайым болған кезде орынсыздық орын алады. Бұл галлюцинацияға әкелуі мүмкін, себебі модель деректердің дисперсиясын немесе күрделілігін түсіре алмайды және иррационалды нәтижелерді шығарады.

Оқыту деректеріндегі әртүрліліктің болмауы:

Бұл тұрғыда мәселе алгоритмде емес, оқыту деректерінің өзінде. Шектеулі немесе біржақты деректерге үйретілген AI үлгілері оқу деректеріндегі шектеулерді немесе бұрмалануларды көрсететін галлюцинацияларды тудыруы мүмкін. Галлюцинациялар, сондай-ақ, модель дұрыс емес немесе толық емес ақпаратты қамтитын деректер жиынында оқытылған кезде де орын алуы мүмкін.

Күрделі модельдер:

Бір қызығы, AI модельдерінің галлюцинацияға бейім болуының тағы бір себебі - олардың өте күрделі немесе тереңдігі. Себебі, күрделі үлгілерде шу немесе шығысқа қателер тудыруы мүмкін параметрлері мен қабаттары көбірек болады.

Дұшпандық шабуылдар:

Кейбір жағдайларда AI галлюцинациясын шабуылдаушы AI моделін алдау үшін әдейі жасауы мүмкін. Мұндай шабуылдар дұшпандық шабуылдар деп аталады. Бұл кибершабуылдың жалғыз мақсаты – жалған деректермен AI үлгілерін алдау немесе манипуляциялау. Ол AI дұрыс емес немесе күтпеген нәтижені тудыратын кіріс деректеріне шағын ауытқуларды енгізуді қамтиды. Мысалы, шабуылдаушы адамдарға көрінбейтін кескінге шу немесе бұлыңғырлық қосуы мүмкін, бірақ оны AI үлгісімен қате жіктеуге әкеледі. Мысалы, InceptionV3 компиляторын «гуакамол» деп айту үшін аздап өзгертілген мысықтың төмендегі суретін қараңыз.


несие:
Аниш Атали , labsix зерттеу тобының мүшесі, оның назары қарсыластық шабуылдарға бағытталған

Өзгерістер айтарлықтай айқын емес. Жоғарыдағы мысалдан көрініп тұрғандай, адам баласы үшін өзгеріс мүлдем мүмкін емес. Оқырман адам үшін оң жақтағы суретті мысық мысық деп санау қиын болмайды. Бірақ суреттерге, бейнелерге, мәтінге немесе дыбысқа шағын өзгерістер енгізу AI жүйесін ол жерде жоқ нәрселерді тануға немесе тоқтату белгісі сияқты нәрселерді елемеуге алдап жіберуі мүмкін.

Мұндай шабуылдар өздігінен жүретін көліктер, биометриялық тексеру, медициналық диагностика, мазмұнды сүзу және т.б. сияқты дәл және сенімді болжамдарға негізделген AI жүйелеріне елеулі қауіп төндіреді.

AI галлюцинациясы қаншалықты қауіпті?

AI галлюцинациялары өте қауіпті болуы мүмкін, әсіресе AI жүйесінің қандай түріне байланысты. Жағымсыз мазмұнды желіде сүзу үшін пайдаланушының ақшасын немесе AI жүйесін жұмсай алатын кез келген өздігінен жүретін көліктер немесе AI көмекшілері толығымен сенімді болуы керек.

Бірақ бұл сағаттың даусыз фактісі - AI жүйелері толығымен сенімді емес, бірақ шын мәнінде галлюцинацияға бейім. Тіпті қазіргі заманғы ең озық AI үлгілері де оған қарсы емес.

Мысалы, бір шабуыл шоуы Google-дың бұлттық есептеулер қызметін тікұшақ сияқты мылтыққа айналдырды. Қазіргі уақытта AI адамның қарулы емес екеніне көз жеткізу үшін жауапты болғанын елестете аласыз ба?

Тағы бір дұшпандық шабуыл тоқтау белгісіне кішкентай сурет қосу оны AI жүйесіне көрінбейтін етіп көрсетті. Негізінде, бұл өзін-өзі басқаратын көлікті жолда тоқтату белгісі жоқ деп галлюцинациялауға болатынын білдіреді. Өздігінен басқарылатын көліктер бүгінде шындық болса, қаншама апат болуы мүмкін? Сондықтан олар қазір жоқ.

Қазіргі уақытта танымал чат-шоуларды ескерсек те, галлюцинациялар дұрыс емес нәтиже тудыруы мүмкін. Бірақ AI чат-боттарының галлюцинацияға бейім екенін және AI боттары шығарған нәтижені растамайтынын білмейтін адамдар байқаусызда жалған ақпарат таратуы мүмкін. Мұның қаншалықты қауіпті екенін түсіндірудің қажеті жоқ.

Сонымен қатар, дұшпандық шабуылдар өзекті мәселе болып табылады. Әзірге олар тек зертханаларда көрсетілді. Бірақ егер миссия үшін маңызды AI жүйесі оларға нақты әлемде қарсы тұрса, оның салдары жойқын болуы мүмкін.

Шындығында, табиғи тіл үлгілерін қорғау салыстырмалы түрде оңайырақ. (Оңай деп айтпаймыз; бұл әлі де өте қиын.) Дегенмен, компьютерлік көру жүйелерін қорғау – мүлде басқа сценарий. Бұл қиынырақ, өйткені табиғи әлемде көптеген өзгерістер бар және кескіндерде көптеген пикселдер бар.

Бұл мәселені шешу үшін бізге әлемге адамның көзқарасы бар AI бағдарламасы қажет болуы мүмкін, бұл оны галлюцинацияға бейімділігін азайтады. Зерттеулер жүргізілуде, біз табиғаттан кеңес алуға және галлюцинация мәселесінен аулақ болуға тырысатын жасанды интеллекттен әлі де алыспыз. Әзірге олар қатал шындық.

Жалпы, AI галлюцинациялары факторлардың жиынтығынан туындауы мүмкін күрделі құбылыс. Зерттеушілер AI жүйелерінің дәлдігі мен сенімділігін арттыру үшін AI галлюцинацияларын анықтау және азайту әдістерін белсенді түрде әзірлеуде. Бірақ кез келген AI жүйесімен әрекеттесу кезінде сіз олар туралы білуіңіз керек.

Байланысты хабарламалар
Мақаланы жариялаңыз

Пікір қосу