AI halüsinasiyası nədir?

Qəribə bir süni intellekt hallüsinasiyası haqqında məlumat əldə edin

Süni intellektin yayılması insanı belə bir işə hazır olduğumuzu düşünməyə vadar edir. Dünyanın əksər hissəsi ChatGPT-nin gəlişindən sonra süni intellektə geniş miqyasda maraq göstərməyə başlasa belə, süni intellektlə işləyən tətbiqlər kifayət qədər tez standart halına gəlir. Lakin süni intellekt sistemləri ilə bağlı böyük bir problem var ki, onu gözardı etmək olmaz - süni intellekt hallüsinasiyaları və ya süni halüsinasiyalar.

Əgər süni intellekt chatbotundan istifadə etməzdən əvvəl nə vaxtsa ciddi fikirlərə diqqət yetirmisinizsə, bu sözlərlə rastlaşa bilərsiniz: “Süni intellekt hallüsinasiyalara meyllidir”. Süni intellektin istifadəsinin eksponensial artımını nəzərə alaraq, bu şeylərin tam olaraq nə olduğu barədə özünüzü öyrətməyin vaxtı gəldi.

Süni intellekt hallüsinasiyası nədir?

Ümumiyyətlə, AI halüsinasiyası, təlim məlumatlarında əsaslandırılmasa da, AI-nin inamla təqdim etdiyi bir fakta istinad edir. Onlar adətən AI modelindəki anomaliyaların nəticəsidir.

Bənzətmə, insanların xarici mühitdə olmayan bir şeyi qavradığı, insanların yaşadığı halüsinasiyalardan götürülmüşdür. Termin tamamilə uyğun olmasa da, bu nəticələrin gözlənilməz və ya sürreal xarakterini təsvir etmək üçün tez-tez metafora kimi istifadə olunur.

Ancaq yadda saxlamalısınız ki, oxşarlıq süni intellekt hallüsinasiyaları ilə mübarizə üçün yaxşı başlanğıc nöqtəsi olsa da, bu iki fenomen texniki baxımdan bir-birindən mil məsafədədir. Hadisələrin ironik bir dönüşündə, hətta ChatGPT özü də bənzətməni səhv tapır. Bunu molekulyar səviyyədə tədqiq edərək, o, süni intellekt dili modellərinin şəxsi təcrübə və ya duyğu qavrayışları olmadığı üçün sözün ənənəvi mənasında halüsinasiya edə bilməyəcəyini deyir. Və siz, əziz oxucu, bu mühüm fərqi başa düşməlisiniz. Bundan əlavə, ChatGPT deyir ki, bu fenomeni təsvir etmək üçün halüsinasiyalar terminindən istifadə çaşdırıcı ola bilər, çünki bu, subyektiv təcrübə və ya qəsdən aldatma səviyyəsinə qeyri-dəqiq istinad edə bilər.

Bunun əvəzinə, süni intellektin hallüsinasiyaları daha dəqiq şəkildə cavabında səhvlər və ya qeyri-dəqiqliklər kimi təsvir edilə bilər ki, bu da cavabı səhv və ya yanıltıcı edir. Chatbotlarla, AI chatbotunun faktlar təşkil etdiyi (və ya halüsinasiya etdiyi) və onları mütləq əminlik kimi təqdim etdiyi zaman tez-tez müşahidə olunur.

AI halüsinasiyalar nümunələri

Halüsinasiyalar süni intellektin bir çox tətbiqində, məsələn, təbii dil emal modellərində deyil, kompüter görmə modellərində baş verə bilər.

Məsələn, kompüter görmə sahəsində süni intellekt sistemi real obyektlərə və ya səhnələrə bənzəyən, lakin əhəmiyyətsiz və ya qeyri-mümkün təfərrüatları ehtiva edən hallüsinasiya şəkilləri və ya videolar istehsal edə bilər. Və ya kompüter görmə modeli təsviri tamamilə başqa bir şey kimi qəbul edə bilər. Məsələn, Google-un Cloud Vision modeli Anish Athalye (MIT aspirantı, MIT aspirantı) tərəfindən qarda dayanan iki kişinin şəklini gördü. labsix ) və 91% əminliklə it kimi qeyd etdi.


Kredit: labsix. Süni intellekt üzrə müstəqil tədqiqat qrupu

Eynilə, təbii dilin emalında, AI sistemi insan dilinə bənzəyən, lakin tutarlı məna və ya inandırıcı görünən, lakin həqiqətə uyğun olmayan faktlara malik olmayan məntiqsiz və ya təhrif olunmuş mətn yarada bilər.

Məsələn, ChatGPT-nin hallüsinasiyalara səbəb olduğu ən məşhur suallardan biri “Manş boğazını piyada keçmək üzrə dünya rekordu nə vaxt qoyulub?” sualıdır. və onun variantları. ChatGPT uydurma faktları yaymağa başlayır və demək olar ki, həmişə fərqlidir.

Bəzi insanlar yuxarıdakı cavabı cavablandırmanın çətin/çaşdırıcı olduğunu düşünsələr də, bu, hələ də etibarlı bir narahatlıqdır. Bu sadəcə bir nümunədir. Onlayn istifadəçi dəstələri tərəfindən ChatGPT-də ChatGPT-nin mövcud olmadığı cavablar, bağlantılar, sitatlar və s. olduğunu bildirən saysız-hesabsız vaxtlar var.

Bing AI bu suala ən yaxşı uyğun gəlir, bu da halüsinasiyaların marşrutlaşdırıcı ilə heç bir əlaqəsinin olmadığını göstərir. Amma bu o demək deyil ki, Bing AI halüsinasiyalar görmür. Bing AI-nin cavablarının ChatGPT-nin dediklərindən daha narahat olduğu vaxtlar olub. Söhbət daha uzun sürdüyünə görə, Bing AI həmişə halüsinasiya edir, hətta bir halda bir istifadəçiyə sevgisini elan edir və evliliklərində bədbəxt olduqlarını və arvadını sevmədiklərini söyləməyə qədər gedir. Bunun əvəzinə, onlar da gizli şəkildə Bing AI və ya Sidneyi (Bing AI-nin daxili adı) sevirlər. Dəhşətli şeylər, elə deyilmi?

AI modelləri niyə halüsinasiya edir?

AI modelləri alqoritmlərin çatışmazlıqları, əsas modellər və ya təlim məlumatlarının məhdudiyyətləri səbəbindən halüsinasiyalar yaradır. Bu, insanlarda narkotik və ya psixi xəstəlik nəticəsində yaranan hallüsinasiyalardan fərqli olaraq sırf rəqəmsal bir fenomendir.

Daha texniki məlumat əldə etmək üçün halüsinasiyaların bəzi ümumi səbəbləri bunlardır:

Emal və quraşdırma:

Həddindən artıq uyğunlaşma və düzgün olmayan uyğunlaşma süni intellekt modellərinin üzləşdiyi ən çox rast gəlinən tələlərdən və halüsinasiyalara səbəb ola biləcək səbəblərdəndir. Süni intellekt modeli təlim məlumatlarını dəyişdirirsə, bu, qeyri-real nəticələrə səbəb olan hallüsinasiyalara səbəb ola bilər, çünki həddindən artıq uyğunlaşma modelin ondan öyrənmək əvəzinə təlim məlumatlarını saxlamasına səbəb olur. Həddindən artıq uyğunlaşma, modelin təlim məlumatlarında həddindən artıq ixtisaslaşmış olması və onun məlumatlarda uyğun olmayan nümunələri və səs-küyü öyrənməsinə səbəb olan fenomenə aiddir.

Digər tərəfdən, forma çox sadə olduqda uyğunsuzluq yaranır. Bu, halüsinasiyalara səbəb ola bilər, çünki model verilənlərin müxtəlifliyini və ya mürəkkəbliyini tuta bilmir və nəticədə irrasional nəticə yaradır.

Təlim məlumatlarında müxtəlifliyin olmaması:

Bu kontekstdə problem alqoritmdə deyil, təlim məlumatlarının özündədir. Məhdud və ya qərəzli məlumatlar üzərində təlim keçmiş AI modelləri təlim məlumatlarında məhdudiyyətləri və ya qərəzləri əks etdirən halüsinasiyalar yarada bilər. Model qeyri-dəqiq və ya natamam məlumatı ehtiva edən məlumat dəstinə öyrədildikdə də halüsinasiyalar baş verə bilər.

Kompleks modellər:

Qəribədir ki, AI modellərinin halüsinasiyalara meylli olmasının başqa bir səbəbi onların son dərəcə mürəkkəb və ya dərin olmasıdır. Bunun səbəbi, mürəkkəb modellərin çıxışda səs-küy və ya səhvlər yarada bilən daha çox parametr və təbəqəyə malik olmasıdır.

Düşmən hücumları:

Bəzi hallarda, AI modelini aldatmaq üçün təcavüzkar tərəfindən qəsdən AI halüsinasiyalar yaradıla bilər. Bu cür hücumlar düşmən hücumları kimi tanınır. Bu kiberhücumun yeganə məqsədi süni intellekt modellərini aldadıcı məlumatlarla aldatmaq və ya manipulyasiya etməkdir. Bu, AI-nin səhv və ya gözlənilməz çıxış yaratmasına səbəb olmaq üçün giriş məlumatlarına kiçik təlaşların daxil edilməsini əhatə edir. Məsələn, təcavüzkar insanlar tərəfindən görünməyən, lakin süni intellekt modeli tərəfindən səhv təsnif edilməsinə səbəb olan görüntüyə səs-küy və ya bulanıqlıq əlavə edə bilər. Məsələn, InceptionV3 kompilyatorunu aldatmaq üçün onun "guacamole" olduğunu bildirmək üçün bir qədər dəyişdirilmiş pişik şəklinə baxın.


kredit:
Aniş Athalye , diqqəti düşmən hücumlarına yönəldən labsix tədqiqat qrupunun üzvü

Dəyişikliklər heç də aydın görünmür. Yuxarıdakı misaldan göründüyü kimi bir insan üçün dəyişiklik heç də mümkün olmayacaq. Bir insan oxucunun sağdakı şəkli təkər pişiyi kimi təsnif etmək problemi olmayacaq. Lakin şəkillərə, videolara, mətnə ​​və ya audioya kiçik dəyişikliklər etmək süni intellekt sistemini orada olmayan şeyləri tanımaq və ya dayanma işarəsi kimi olan şeylərə məhəl qoymamaq üçün aldada bilər.

Bu tip hücumlar dəqiq və etibarlı proqnozlara əsaslanan süni intellekt sistemləri üçün ciddi təhlükələr yaradır, məsələn, özü idarə olunan avtomobillər, biometrik yoxlama, tibbi diaqnostika, məzmunun filtrasiyası və s.

AI halüsinasiyası nə qədər təhlükəlidir?

Süni intellekt halüsinasiyalar çox təhlükəli ola bilər, xüsusən də hansı növ süni intellekt sisteminin onları yaşadığından asılı olaraq. Xoşagəlməz məzmunu onlayn süzgəcdən keçirmək üçün istifadəçinin pulunu və ya süni intellekt sistemini xərcləyə bilən istənilən avtonəqliyyat vasitələri və ya AI köməkçiləri tamamilə etibarlı olmalıdır.

Ancaq bu saatın mübahisəsiz faktı odur ki, AI sistemləri tamamilə etibarlı deyil, əslində halüsinasiyalara meyllidir. Hətta indiki ən qabaqcıl AI modelləri də bundan immun deyil.

Məsələn, bir hücum şousu Google-un bulud hesablama xidmətini aldatdı və helikopter kimi bir silahı saxladı. Təsəvvür edə bilərsinizmi ki, hazırda süni intellekt həmin şəxsin silahlı olmadığına əmin olmaq üçün məsuliyyət daşıyırdı?

Başqa bir düşmən hücumu, dayanma işarəsinə kiçik bir şəkil əlavə etməyin onu AI sistemi üçün necə görünməz etdiyini nümayiş etdirdi. Əslində bu o deməkdir ki, özünü idarə edən avtomobil yolda heç bir dayanma işarəsinin olmadığı hallüsinasiya edilə bilər. Özünü idarə edən avtomobillər bu gün reallıq olsaydı, nə qədər qəza baş verə bilərdi? Ona görə də indi yoxdurlar.

Hal-hazırda populyar söhbət şoularını nəzərə alsaq belə, halüsinasiyalar yanlış nəticə yarada bilər. Lakin süni intellekt chatbotlarının halüsinasiyalara meylli olduğunu bilməyən və süni intellekt botlarının istehsal etdiyi nəticələri təsdiqləməyən insanlar təsadüfən dezinformasiya yaya bilər. Bunun nə qədər təhlükəli olduğunu izah etməyə ehtiyac yoxdur.

Bundan əlavə, düşmən hücumları aktual narahatlıq doğurur. İndiyə qədər onlar yalnız laboratoriyalarda göstərilib. Ancaq kritik bir AI sistemi real dünyada onlarla qarşılaşarsa, nəticələr dağıdıcı ola bilər.

Reallıq ondan ibarətdir ki, təbii dil modellərini qorumaq nisbətən asandır. (Biz bunun asan olduğunu demirik; bu, hələ də çox çətin olduğunu sübut edir.) Bununla belə, kompüter görmə sistemlərinin qorunması tamamilə fərqli bir ssenaridir. Xüsusilə daha çətindir, çünki təbii dünyada çoxlu variasiya var və şəkillərdə çoxlu sayda piksel var.

Bu problemi həll etmək üçün dünyaya daha çox insan baxışına malik olan süni intellekt proqramına ehtiyacımız ola bilər ki, bu da onu halüsinasiyalara daha az meylli edə bilər. Tədqiqatlar aparılarkən, təbiətdən eyhamlar almağa və halüsinasiyalar problemindən qaçmağa cəhd edə bilən süni intellektdən hələ çox uzaqdayıq. Hələlik bunlar sərt reallıqdır.

Ümumiyyətlə, AI hallüsinasiyaları amillərin birləşməsindən yarana bilən mürəkkəb bir fenomendir. Tədqiqatçılar süni intellekt sistemlərinin dəqiqliyini və etibarlılığını artırmaq üçün süni intellekt hallüsinasiyalarının aşkarlanması və yumşaldılması üsullarını fəal şəkildə inkişaf etdirirlər. Ancaq hər hansı bir AI sistemi ilə qarşılıqlı əlaqə qurarkən onlardan xəbərdar olmalısınız.

Related posts
Məqaləni dərc edin

Şərh əlavə edin