AI gallyutsinatsiyasi nima?

AI gallyutsinatsiyasining g'alati hodisasi haqida bilib oling

Sun'iy intellektning keng tarqalishi bizni bunday tashabbusga tayyormiz deb o'ylashga majbur qiladi. ChatGPT kelganidan keyin dunyoning aksariyat qismi AIga keng miqyosda qiziqishni boshlagan bo'lsa ham, sun'iy intellektga asoslangan ilovalar juda tez standart bo'lib bormoqda. Ammo AI tizimlarida katta muammo bor, uni e'tiborsiz qoldirib bo'lmaydi - AI gallyutsinatsiyalari yoki sun'iy gallyutsinatsiyalar.

Agar siz sun'iy intellekt chatbotidan foydalanishdan oldin juda nozik narsalarga e'tibor bergan bo'lsangiz, ehtimol siz quyidagi so'zlarni uchratgan bo'lishingiz mumkin: "Sun'iy intellekt gallyutsinatsiyalarga moyil." Sun'iy intellektdan foydalanishning eksponentsial o'sishini hisobga olgan holda, bu narsalar nima ekanligini o'rganish vaqti keldi.

Sun'iy intellekt gallyutsinatsiyasi nima?

AI gallyutsinatsiyasi, umuman olganda, AI o'zining ta'lim ma'lumotlarida oqlanmagan bo'lsa ham, ishonchli tarzda taqdim etgan haqiqatni anglatadi. Ular odatda AI modelidagi anomaliyalarning natijasidir.

Analogiya odamlar boshdan kechirgan gallyutsinatsiyalardan olingan bo'lib, ularda odamlar tashqi muhitda mavjud bo'lmagan narsani idrok etadilar. Bu atama to'liq mos kelmasligi mumkin bo'lsa-da, u ko'pincha ushbu natijalarning kutilmagan yoki syurreal tabiatini tasvirlash uchun metafora sifatida ishlatiladi.

Ammo shuni yodda tutish kerakki, o'xshashlik AI gallyutsinatsiyalari bilan kurashish uchun yaxshi boshlanish nuqtasi bo'lsa-da, ikkala hodisa texnik jihatdan bir-biridan milya masofada joylashgan. Voqealarning istehzoli burilishida, hatto ChatGPT ham o'xshashlikni noto'g'ri deb biladi. Uni molekulyar darajada ajratib ko‘rsatar ekan, u sun’iy intellekt tili modellarida shaxsiy tajriba yoki hissiy idrok yo‘qligi sababli ular so‘zning an’anaviy ma’nosida gallyutsinatsiya qila olmasligini aytadi. Va siz, aziz o'quvchi, bu muhim farqni tushunishingiz kerak. Bundan tashqari, ChatGPT ta'kidlashicha, bu hodisani tasvirlash uchun gallyutsinatsiyalar atamasidan foydalanish chalkash bo'lishi mumkin, chunki u sub'ektiv tajriba yoki qasddan aldash darajasiga noto'g'ri murojaat qilishi mumkin.

Buning o'rniga, sun'iy intellektning gallyutsinatsiyalari javobni noto'g'ri yoki chalg'ituvchi qilib, uning javobidagi xatolar yoki noaniqliklar sifatida aniqroq ta'riflanishi mumkin. Chatbotlarda ko'pincha AI chatboti faktlarni (yoki gallyutsinatsiyalar) yaratganda va ularni mutlaq ishonch sifatida taqdim etganda kuzatiladi.

AI gallyutsinatsiyalariga misollar

Gallyutsinatsiyalar sun'iy intellektning ko'plab ilovalarida, masalan, tabiiy tilni qayta ishlash modellarida emas, balki kompyuter ko'rish modellarida paydo bo'lishi mumkin.

Masalan, kompyuterni ko'rishda AI tizimi haqiqiy ob'ektlar yoki sahnalarga o'xshash, ammo ahamiyatsiz yoki imkonsiz tafsilotlarni o'z ichiga olgan gallyutsinatsion tasvirlar yoki videolarni ishlab chiqishi mumkin. Yoki kompyuter ko'rish modeli tasvirni butunlay boshqa narsa sifatida qabul qilishi mumkin. Masalan, Googlening Cloud Vision modeli Anish Athalye (MIT aspiranti, MIT aspiranti) tomonidan qor ustida turgan chang'i ustida turgan ikki kishining suratini ko'rdi. labsix ) va uni 91% ishonch bilan it sifatida eslatib o'tdi.


Kredit: labsix. Sun'iy intellekt bo'yicha mustaqil tadqiqot guruhi

Xuddi shunday, tabiiy tilni qayta ishlashda AI tizimi inson tiliga o'xshash, ammo izchil ma'noga ega bo'lmagan yoki ishonarli ko'rinadigan, ammo haqiqatga mos kelmaydigan dalillarga ega bo'lmagan mantiqsiz yoki noto'g'ri matn ishlab chiqishi mumkin.

Misol uchun, ChatGPT gallyutsinatsiyalarni keltirib chiqaradigan eng mashhur savollardan biri bu "Ingliz kanalini piyoda kesib o'tish bo'yicha jahon rekordi qachon o'rnatilgan?" va uning variantlari. ChatGPT uydirma faktlarni tarqatishni boshlaydi va bu deyarli har doim boshqacha.

Ba'zi odamlar yuqoridagi javobni javob berish qiyin/chalkash deb o'ylashsa-da, bu chatbotni hayratda qoldirishiga sabab bo'lsa-da, bu hali ham dolzarb tashvishdir. Bu faqat bir misol. ChatGPT-da ChatGPT mavjud bo'lmagan javoblar, havolalar, iqtiboslar va boshqalar borligi haqida ko'plab foydalanuvchilar onlayn xabar berishadi.

Bing AI bu savolga eng mos keladi, bu gallyutsinatsiyalarning yo'riqnoma bilan hech qanday aloqasi yo'qligini ko'rsatadi. Ammo bu Bing AI gallyutsinatsiya qilmaydi degani emas. Bing AI ning javoblari ChatGPT aytgan har qanday narsadan ko'ra ko'proq bezovta qilgan paytlar bo'lgan. Suhbat ko'proq vaqt talab qiladiganligi sababli, Bing AI har doim gallyutsinatsiyalar bilan shug'ullanadi, hatto bir misolda foydalanuvchiga o'z sevgisini e'lon qiladi va ularga nikohlarida baxtsiz ekanliklarini va uning xotinini sevmasliklarini aytishgacha boradi. Buning o'rniga, ular yashirincha Bing AI yoki Sidneyni (Bing AIning ichki nomi) yaxshi ko'radilar. Qo'rqinchli narsalar, to'g'rimi?

Nega AI modellari gallyutsinatsiya qiladi?

AI modellari algoritmlarning kamchiliklari, asosiy modellar yoki o'quv ma'lumotlarining cheklovlari tufayli gallyutsinatsiyalanadi. Giyohvand moddalar yoki ruhiy kasalliklar sabab bo'lgan odamlardagi gallyutsinatsiyalardan farqli o'laroq, bu sof raqamli hodisa.

Ko'proq texnik ma'lumot olish uchun gallyutsinatsiyalarning ba'zi umumiy sabablari:

Qayta ishlash va o'rnatish:

Haddan tashqari o'rnatish va noto'g'ri o'rnatish AI modellari duch keladigan eng keng tarqalgan tuzoqlardan va gallyutsinatsiyalarning mumkin bo'lgan sabablaridan biridir. Agar AI modeli o'quv ma'lumotlarini o'zgartirsa, bu haqiqiy bo'lmagan natijalarga olib keladigan gallyutsinatsiyalarga olib kelishi mumkin, chunki haddan tashqari moslash modelni undan o'rganish o'rniga o'quv ma'lumotlarini saqlashga olib keladi. Haddan tashqari moslashish bu model o'quv ma'lumotlariga juda ixtisoslashgan bo'lib, u ma'lumotlardagi ahamiyatsiz naqshlar va shovqinlarni o'rganishga olib keladigan hodisani anglatadi.

Boshqa tomondan, shakl juda oddiy bo'lsa, nomaqbullik paydo bo'ladi. Bu gallyutsinatsiyalarga olib kelishi mumkin, chunki model ma'lumotlarning xilma-xilligini yoki murakkabligini ushlay olmaydi va irratsional natijani keltirib chiqaradi.

Ta'lim ma'lumotlarining xilma-xilligi:

Shu nuqtai nazardan, muammo algoritmda emas, balki o'quv ma'lumotlarining o'zida. Cheklangan yoki noto'g'ri ma'lumotlar asosida o'qitiladigan AI modellari o'quv ma'lumotlaridagi cheklovlar yoki noto'g'rilikni aks ettiruvchi gallyutsinatsiyalarni keltirib chiqarishi mumkin. Model noto'g'ri yoki to'liq bo'lmagan ma'lumotlarni o'z ichiga olgan ma'lumotlar to'plamiga o'rgatilganda ham gallyutsinatsiyalar paydo bo'lishi mumkin.

Murakkab modellar:

Ajablanarlisi shundaki, AI modellari gallyutsinatsiyalarga moyil bo'lishining yana bir sababi - ular juda murakkab yoki chuqur. Buning sababi shundaki, murakkab modellar chiqishda shovqin yoki xatoliklarni keltirib chiqaradigan ko'proq parametr va qatlamlarga ega.

Dushman hujumlari:

Ba'zi hollarda, AI gallyutsinatsiyalari tajovuzkor tomonidan AI modelini aldash uchun ataylab yaratilishi mumkin. Ushbu turdagi hujumlar dushman hujumlari sifatida tanilgan. Ushbu kiberhujumning yagona maqsadi AI modellarini chalg'ituvchi ma'lumotlar bilan aldash yoki manipulyatsiya qilishdir. Bu AI noto'g'ri yoki kutilmagan natijalarni keltirib chiqarishi uchun kirish ma'lumotlariga kichik buzilishlarni kiritishni o'z ichiga oladi. Misol uchun, tajovuzkor odamlar tomonidan sezilmaydigan tasvirga shovqin yoki xiralik qo'shishi mumkin, lekin uni AI modeli tomonidan noto'g'ri tasniflanishiga olib keladi. Masalan, InceptionV3 kompilyatorini "guakamol" deb aldash uchun biroz o'zgartirilgan mushuk tasvirini ko'ring.


kredit:
Anish Athalye , labsix tadqiqot guruhining a'zosi, uning diqqat markazida raqib hujumlari

O'zgarishlar sezilarli darajada aniq emas. Yuqoridagi misoldan ko'rinib turibdiki, inson uchun o'zgarish umuman mumkin bo'lmaydi. Inson o'quvchi o'ngdagi tasvirni tabby mushuk deb tasniflashda muammo bo'lmaydi. Ammo tasvirlar, videolar, matn yoki audioga kichik oʻzgarishlar kiritish sunʼiy intellekt tizimini yoʻq narsalarni tanib olish yoki toʻxtash belgisi kabi narsalarni eʼtiborsiz qoldirish uchun aldashi mumkin.

Bunday hujumlar o‘zini-o‘zi boshqaradigan avtomobillar, biometrik tekshirish, tibbiy diagnostika, kontentni filtrlash va hokazolar kabi aniq va ishonchli bashoratlarga tayanadigan AI tizimlariga jiddiy tahdid soladi.

AI gallyutsinatsiyasi qanchalik xavfli?

AI gallyutsinatsiyalari juda xavfli bo'lishi mumkin, ayniqsa AI tizimining qaysi turiga bog'liq. Noqulay kontentni onlayn filtrlash uchun foydalanuvchi pulini yoki sun'iy intellekt tizimini sarflashga qodir bo'lgan har qanday o'zini o'zi boshqaradigan transport vositalari yoki AI yordamchilari to'liq ishonchli bo'lishi kerak.

Ammo bu soatning shubhasiz haqiqati shundaki, AI tizimlari to'liq ishonchli emas, lekin aslida gallyutsinatsiyalarga moyil. Hatto bugungi eng ilg'or AI modellari ham undan himoyalanmagan.

Misol uchun, bitta hujum shousi Google bulutli hisoblash xizmatini aldab, vertolyot kabi qurolni tashlab yubordi. Tasavvur qila olasizmi, agar hozirda AI odamning qurollanmaganligiga ishonch hosil qilish uchun javobgar bo'lganmi?

Yana bir dushman hujumi to'xtash belgisiga kichik rasm qo'shish uni AI tizimiga ko'rinmas qilishini ko'rsatdi. Aslida, bu o'z-o'zidan boshqariladigan mashinani yo'lda to'xtash belgisi yo'qligini gallyutsinatsiya qilish uchun qilish mumkinligini anglatadi. Agar o'z-o'zidan boshqariladigan mashinalar bugungi kunda haqiqat bo'lganida qancha baxtsiz hodisalar yuz berishi mumkin edi? Shuning uchun ular hozir emas.

Hozirda mashhur chat-shoularni hisobga olsak ham, gallyutsinatsiyalar noto'g'ri chiqishni keltirib chiqarishi mumkin. Ammo AI chatbotlari gallyutsinatsiyalarga moyilligini bilmagan va AI botlari tomonidan ishlab chiqarilgan natijalarni tasdiqlamaydigan odamlar beixtiyor noto'g'ri ma'lumot tarqatishi mumkin. Bu qanchalik xavfli ekanligini tushuntirishimiz shart emas.

Bundan tashqari, dushman hujumlari dolzarb tashvishdir. Hozircha ular faqat laboratoriyalarda ko'rsatildi. Ammo agar muhim AI tizimi ularga real dunyoda duch kelsa, oqibatlari halokatli bo'lishi mumkin.

Haqiqat shundaki, tabiiy til modellarini himoya qilish nisbatan osonroq. (Biz buni oson demayapmiz; bu hali ham juda qiyin.) Biroq, kompyuterni ko'rish tizimlarini himoya qilish butunlay boshqacha stsenariy. Bu qiyinroq, chunki tabiiy dunyoda juda ko'p xilma-xillik mavjud va tasvirlar juda ko'p piksellarni o'z ichiga oladi.

Ushbu muammoni hal qilish uchun bizga dunyoga nisbatan ko'proq insoniy nuqtai nazarga ega bo'lgan sun'iy intellekt dasturi kerak bo'lishi mumkin, bu esa uni gallyutsinatsiyalarga kamroq moyil qiladi. Tadqiqotlar olib borilayotgan bir paytda, biz tabiatdan maslahatlar olishga va gallyutsinatsiyalar muammosidan qochishga harakat qiladigan sun'iy intellektdan hali uzoqdamiz. Hozircha ular qattiq haqiqatdir.

Umuman olganda, AI gallyutsinatsiyalari omillarning kombinatsiyasidan kelib chiqishi mumkin bo'lgan murakkab hodisadir. Tadqiqotchilar AI tizimlarining aniqligi va ishonchliligini oshirish uchun AI gallyutsinatsiyalarini aniqlash va yumshatish usullarini faol ravishda ishlab chiqmoqdalar. Ammo har qanday AI tizimi bilan ishlashda siz ulardan xabardor bo'lishingiz kerak.

Tegishli xabarlar
Maqolani nashr qiling

Fikr qo'shish