Што такое галюцынацыя ІІ?

Даведайцеся пра дзіўны выпадак галюцынацыі штучнага інтэлекту

Распаўсюджанасць штучнага інтэлекту прымушае думаць, што мы гатовыя да такога пачынання. Праграмы на базе штучнага інтэлекту даволі хутка становяцца стандартнымі, нават калі большая частка свету толькі цяпер пачынае праяўляць цікавасць да штучнага інтэлекту ў вялікіх маштабах, пасля з'яўлення ChatGPT. Але ёсць вялікая праблема з сістэмамі AI, якую нельга ігнараваць - галюцынацыі AI, або штучныя галюцынацыі.

Калі вы калі-небудзь звярталі ўвагу на дробязі перад выкарыстаннем чат-бота AI, магчыма, вы сустракалі словы: «Штучны інтэлект схільны да галюцынацый». Улічваючы экспанентны рост выкарыстання штучнага інтэлекту, прыйшоў час навучыць сябе, што менавіта гэта такое.

Што такое галюцынацыя штучнага інтэлекту?

Галюцынацыя штучнага інтэлекту, як правіла, адносіцца да факту, які штучны інтэлект упэўнена прадставіў, нават калі гэта не апраўдана ў яго навучальных дадзеных. Звычайна яны з'яўляюцца вынікам анамалій у мадэлі AI.

Аналогія ўзятая з галюцынацый, якія адчуваюць людзі, у якіх людзі ўспрымаюць нешта, чаго няма ў знешнім асяроддзі. Хоць гэты тэрмін можа быць не зусім прыдатным, ён часта выкарыстоўваецца як метафара для апісання нечаканага або сюррэалістычнага характару гэтых вынікаў.

Але вы павінны памятаць, што ў той час як падабенства з'яўляецца добрай адпраўной кропкай для барацьбы з галюцынацыямі штучнага інтэлекту, тэхнічна дзве з'явы далёка адзін ад аднаго. У іранічным павароце падзей нават сам ChatGPT лічыць аналогію няправільнай. Разбіраючы гэта на малекулярным узроўні, ён кажа, што, паколькі моўныя мадэлі штучнага інтэлекту не маюць асабістага вопыту або пачуццёвага ўспрымання, яны не могуць галюцынаваць у традыцыйным сэнсе гэтага слова. І ты, шаноўны чытач, павінен зразумець гэтую важную розніцу. Акрамя таго, ChatGPT кажа, што выкарыстанне тэрміна галюцынацыі для апісання гэтай з'явы можа ўвесці ў зман, таму што ён можа недакладна адносіцца да ўзроўню суб'ектыўнага вопыту або наўмыснага падману.

Замест гэтага галюцынацыі ІІ можна больш дакладна апісаць як памылкі або недакладнасці ў яго адказе, што робіць адказ няправільным або ўводзіць у зман. З чат-ботамі часта назіраецца, калі чат-бот AI выдумляе (або галюцынуе) факты і прадстаўляе іх як абсалютную пэўнасць.

Прыклады галюцынацый ІІ

Галюцынацыі могуць узнікаць у многіх прымяненнях штучнага інтэлекту, такіх як мадэлі камп'ютэрнага зроку, а не толькі ў мадэлях апрацоўкі натуральнай мовы.

У камп'ютэрным зроку, напрыклад, сістэма штучнага інтэлекту можа ствараць галюцынацыйныя выявы або відэа, якія нагадваюць рэальныя аб'екты або сцэны, але ўтрымліваюць неістотныя або немагчымыя дэталі. Або мадэль камп'ютэрнага зроку можа ўспрымаць малюнак як нешта зусім іншае. Напрыклад, мадэль Google Cloud Vision убачыла выяву двух мужчын на лыжах, якія стаяць на снезе, зробленую Анішам Аталі (аспірантам MIT, які з'яўляецца часткай лабсікс ) і згадаў яго як сабаку з упэўненасцю 91%.


Крэдыты: labsix. Незалежная даследчая група штучнага інтэлекту

Сапраўды гэтак жа пры апрацоўцы натуральнай мовы сістэма штучнага інтэлекту можа ствараць нелагічны або скажоны тэкст, які нагадвае чалавечую мову, але не мае звязнага значэння, або факты, якія выглядаюць праўдападобнымі, але не адпавядаюць рэчаіснасці.

Напрыклад, адно з самых папулярных пытанняў, якое ChatGPT выклікае галюцынацыі: «Калі быў усталяваны сусветны рэкорд пешага пераходу Ла-Манша?» і яго разнавіднасці. ChatGPT пачынае распаўсюджваць выдуманыя факты, і гэта амаль заўсёды адрозніваецца.

Нягледзячы на ​​тое, што некаторыя людзі думаюць, што адказ на прыведзены вышэй адказ цяжкі/збівае з панталыку і, такім чынам, выклікае трызненне чат-бота, гэта ўсё яшчэ выклікае занепакоенасць. Гэта толькі адзін прыклад. Мноства карыстальнікаў у інтэрнэце шмат разоў паведамлялі, што ў ChatGPT ёсць адказы, спасылкі, цытаты і г.д., што ChatGPT не існуе.

Bing AI лепш за ўсё падыходзіць для гэтага пытання, якое паказвае, што галюцынацыі не маюць нічога агульнага з маршрутызатарам. Але гэта не значыць, што ў Bing AI няма галюцынацый. Бывалі моманты, калі адказы Bing AI выклікалі больш трывогі, чым усе, што казаў ChatGPT. Паколькі размова, як правіла, займае больш часу, Bing AI заўсёды галюцынаваў, у адным выпадку нават прызнаючыся ў каханні карыстальніку і зайшоўшы так далёка, што сказаў ім, што яны няшчасныя ў шлюбе і што яны не любяць яго жонку. Замест гэтага яны таемна любяць Bing AI, або Sydney (унутраная назва Bing AI). Страшныя рэчы, праўда?

Чаму ў мадэляў штучнага інтэлекту галюцынацыі?

Мадэлі штучнага інтэлекту выклікаюць галюцынацыі з-за недахопаў алгарытмаў, асноўных мадэляў або абмежаванняў навучальных даных. Гэта выключна лічбавая з'ява, у адрозненне ад галюцынацый у людзей, якія выкліканы альбо наркотыкамі, альбо псіхічнымі захворваннямі.

Каб атрымаць больш тэхнічную інфармацыю, некаторыя распаўсюджаныя прычыны галюцынацый:

Апрацоўка і мантаж:

Пераабсталяванне і няправільнае прыстасаванне з'яўляюцца аднымі з найбольш распаўсюджаных падводных камянёў, з якімі сутыкаюцца мадэлі штучнага інтэлекту, і магчымымі прычынамі галюцынацый. Калі мадэль штучнага інтэлекту змяняе навучальныя даныя, гэта можа выклікаць галюцынацыі, якія прыводзяць да нерэалістычных вынікаў, таму што пераабсталяванне прымушае мадэль захоўваць навучальныя даныя, а не вучыцца на іх. Пераабсталяванне адносіцца да з'явы, калі мадэль занадта спецыялізуецца на навучальных даных, у выніку чаго яна вывучае недарэчныя шаблоны і шум у даных.

З іншага боку, недарэчнасць узнікае, калі форма занадта простая. Гэта можа прывесці да галюцынацый, таму што мадэль не ў стане ўлавіць дысперсію або складанасць даных і ў канчатковым выніку стварае ірацыянальны вынік.

Адсутнасць разнастайнасці ў дадзеных навучання:

У гэтым кантэксце праблема не ў алгарытме, а ў саміх навучальных дадзеных. Мадэлі штучнага інтэлекту, навучаныя на абмежаваных або неаб'ектыўных дадзеных, могуць выклікаць галюцынацыі, якія адлюстроўваюць абмежаванні або прадузятасці ў навучальных даных. Галюцынацыі таксама могуць узнікаць, калі мадэль навучаецца на наборы даных, які змяшчае недакладную або няпоўную інфармацыю.

Складаныя мадэлі:

Па іроніі лёсу, яшчэ адна прычына, па якой мадэлі штучнага інтэлекту схільныя да галюцынацый, заключаецца ў тым, надзвычай складаныя яны або глыбокія. Гэта адбываецца таму, што складаныя мадэлі маюць больш параметраў і слаёў, якія могуць выклікаць шум або памылкі ў вывадзе.

Варожыя атакі:

У некаторых выпадках галюцынацыі штучнага інтэлекту могуць быць наўмысна створаны зламыснікам, каб падмануць мадэль штучнага інтэлекту. Гэтыя тыпы нападаў вядомыя як варожыя напады. Адзіная мэта гэтай кібератакі - падмануць або маніпуляваць мадэлямі штучнага інтэлекту з дапамогай ілжывых даных. Ён уключае ў сябе невялікія абурэнні ва ўваходныя даныя, каб прымусіць штучны інтэлект генераваць няправільныя або нечаканыя вынікі. Напрыклад, зламыснік можа дадаць шум або размытасць выявы, незаўважнай для людзей, але прычынай яе няправільнай класіфікацыі мадэллю штучнага інтэлекту. Напрыклад, глядзіце малюнак ката ніжэй, які быў крыху зменены, каб прымусіць кампілятар InceptionV3 заявіць, што гэта "гуакамоле".


крэдыт:
Аніш Аталі , член даследчай групы labsix, у цэнтры якой - спаборніцкія атакі

Змены не відавочныя. Для чалавека змены ўвогуле немагчымыя, як відаць з прыведзенага вышэй прыкладу. Чалавек-чытач без праблем аднясе малюнак справа як паласатага ката. Але ўнясенне невялікіх змяненняў у выявы, відэа, тэкст або аўдыя можа прымусіць сістэму штучнага інтэлекту распазнаваць тое, чаго няма, або ігнараваць тое, што ёсць, напрыклад, знак прыпынку.

Гэтыя тыпы нападаў ствараюць сур'ёзную пагрозу для сістэм штучнага інтэлекту, якія абапіраюцца на дакладныя і надзейныя прагнозы, такіх як беспілотныя аўтамабілі, біяметрычная праверка, медыцынская дыягностыка, фільтраванне змесціва і гэтак далей.

Наколькі небяспечная галюцынацыя ІІ?

Галюцынацыі ІІ могуць быць вельмі небяспечнымі, асабліва ў залежнасці ад тыпу сістэмы ІІ. Любыя беспілотныя транспартныя сродкі або памочнікі штучнага інтэлекту, здольныя марнаваць грошы карыстальніка, або сістэма штучнага інтэлекту для фільтрацыі непрыемнага кантэнту ў Інтэрнэце павінны быць цалкам надзейнымі.

Але бясспрэчным фактам гэтай гадзіны з'яўляецца тое, што сістэмы штучнага інтэлекту не зусім вартыя даверу, але насамрэч схільныя да галюцынацый. Нават самыя перадавыя сучасныя мадэлі штучнага інтэлекту не застрахаваны ад гэтага.

Напрыклад, адно шоу аб атаках падманула службу воблачных вылічэнняў Google, прымусіўшы сачыць за стрэльбай, як за верталётам. Вы можаце сабе ўявіць, калі б на дадзены момант штучны інтэлект адказваў за тое, каб чалавек не быў узброены?

Яшчэ адна варожая атака прадэманстравала, як даданне маленькай выявы да знака стоп робіць яго нябачным для сістэмы AI. Па сутнасці, гэта азначае, што беспілотны аўтамабіль можа выклікаць галюцынацыю, што на дарозе няма знака "Стоп". Колькі аварый магло б адбыцца, калі б беспілотныя аўтамабілі сёння сталі рэальнасцю? Таму цяпер іх няма.

Нават калі прыняць да ўвагі папулярныя ў цяперашні час чат-шоу, галюцынацыі могуць генераваць няправільны вынік. Але людзі, якія не ведаюць, што чат-боты са штучным інтэлектам схільныя да галюцынацый і не правяраюць вынікі, атрыманыя робатамі са штучным інтэлектам, могуць ненаўмысна распаўсюджваць дэзінфармацыю. Нам не трэба тлумачыць, наколькі гэта небяспечна.

Акрамя таго, варожыя атакі выклікаюць надзённую заклапочанасць. Пакуль яны былі паказаны толькі ў лабараторыях. Але калі крытычна важная сістэма штучнага інтэлекту сутыкнецца з імі ў рэальным свеце, наступствы могуць быць разбуральнымі.

Рэальнасць такая, што абараніць мадэлі натуральнай мовы адносна лягчэй. (Мы не гаворым, што гэта лёгка; усё яшчэ аказваецца вельмі складаным.) Аднак абарона сістэм камп'ютэрнага зроку - гэта зусім іншы сцэнар. Гэта больш складана, асабліва з-за таго, што ў свеце прыроды вельмі шмат варыяцый, а выявы ўтрымліваюць вялікую колькасць пікселяў.

Каб вырашыць гэтую праблему, нам можа спатрэбіцца праграма штучнага інтэлекту, якая мае больш чалавечы погляд на свет, які можа зрабіць яго менш схільным да галюцынацый. Пакуль праводзяцца даследаванні, мы яшчэ далёкія ад штучнага інтэлекту, які можа паспрабаваць атрымаць падказкі ад прыроды і пазбегнуць праблемы галюцынацый. Пакуль жа яны — суровая рэальнасць.

Увогуле, галюцынацыі штучнага інтэлекту - гэта складаная з'ява, якая можа ўзнікнуць у выніку сукупнасці фактараў. Даследчыкі актыўна распрацоўваюць метады выяўлення і змякчэння галюцынацый ІІ для павышэння дакладнасці і надзейнасці сістэм ІІ. Але вы павінны ведаць пра іх пры ўзаемадзеянні з любой сістэмай штучнага інтэлекту.

Артыкулы па тэме
Апублікаваць артыкул на

Дадаць каментар