Шта је АИ халуцинација?

Сазнајте о чудном случају АИ халуцинације

Распрострањеност вештачке интелигенције наводи на помисао да смо спремни за такав подухват. Апликације које покреће вештачка интелигенција постају стандардне прилично брзо, чак и ако већина света тек сада почиње да се интересује за вештачку интелигенцију у великим размерама, након доласка ЦхатГПТ-а. Али постоји велики проблем са системима вештачке интелигенције који се не може занемарити - АИ халуцинације, или вештачке халуцинације.

Ако сте икада обраћали пажњу на ситне ствари пре употребе АИ цхатбот-а, можда сте наишли на речи: „Вештачка интелигенција је склона халуцинацијама. С обзиром на експоненцијално повећање употребе вештачке интелигенције, време је да се образујете о томе шта су то тачно.

Шта је халуцинација вештачке интелигенције?

АИ халуцинирајући се, генерално, односи на чињеницу коју је АИ самоуверено представила, иако то није оправдано у подацима о обуци. Обично су резултат аномалија у АИ моделу.

Аналогија је узета из халуцинација које доживљавају људи, у којима људи опажају нешто што није присутно у спољашњем окружењу. Иако термин можда није сасвим прикладан, често се користи као метафора за описивање неочекиване или надреалне природе ових резултата.

Али треба да запамтите да иако је сличност добра полазна тачка за суочавање са АИ халуцинацијама, ова два феномена су технички удаљена миљама. У ироничном преокрету догађаја, чак и сам ЦхатГПТ сматра да је аналогија погрешна. Сецирајући то на молекуларном нивоу, он каже да зато што модели језика АИ немају лично искуство или чулне перцепције, не могу да халуцинирају у традиционалном смислу те речи. И ви, драги читаоче, морате да разумете ову важну разлику. Штавише, ЦхатГПТ каже да коришћење термина халуцинације за описивање овог феномена може бити збуњујуће јер се може нетачно односити на ниво субјективног искуства или намерне обмане.

Уместо тога, халуцинације АИ се могу прецизније описати као грешке или нетачности у њеном одговору, чинећи одговор нетачним или обмањујућим. Код цхатботова се често примећује када АИ цхатбот измишља (или халуцинира) чињенице и представља их као апсолутну сигурност.

Примери АИ халуцинација

Халуцинације се могу јавити у многим применама вештачке интелигенције, као што су модели компјутерског вида, а не само модели обраде природног језика.

У компјутерском виду, на пример, систем вештачке интелигенције може да произведе халуцинантне слике или видео записе који подсећају на стварне објекте или сцене, али садрже небитне или немогуће детаље. Или, модел компјутерског вида може да перципира слику као нешто сасвим друго. На пример, Гоогле-ов модел Цлоуд Висион видео је слику двојице мушкараца на скијама који стоје у снегу коју је направио Анисх Атхали (студент МИТ-а који је део лабсик ) и поменуо га као пса са сигурношћу од 91%.


Заслуге: лабсик. Независна истраживачка група за вештачку интелигенцију

Слично, у обради природног језика, АИ систем може произвести нелогичан или искривљен текст који подсећа на људски језик, али нема кохерентно значење или чињенице које изгледају уверљиво, али нису истините.

На пример, једно од најпопуларнијих питања које ЦхатГПТ изазива халуцинације је „Када је постављен светски рекорд за прелазак Ламанша пешице?“ и његове варијанте. ЦхатГПТ почиње да шири измишљене чињенице и скоро увек је другачије.

Иако неки људи мисле да је горњи одговор тешко/збуњујуће за одговорити и на тај начин изазивају одушевљење цхатбот-а, то је и даље оправдана забринутост. Ово је само један пример. Постоји безброј пута, пријављених од стране хорде корисника на мрежи, да ЦхатГПТ има одговоре, везе, цитате итд. да ЦхатГПТ не постоји.

Бинг АИ најбоље одговара овом питању, што показује да халуцинације немају никакве везе са рутером. Али то не значи да Бинг АИ не халуцинира. Било је тренутака када су одговори Бинг АИ били више забрињавајући од било чега што је ЦхатГПТ рекао. Пошто разговор обично траје дуже, Бинг АИ је одувек халуцинирао, чак је у једном тренутку изјављивао своју љубав кориснику и ишао толико далеко да им каже да су несрећни у свом браку и да не воле његову жену. Уместо тога, они потајно воле Бинг АИ, или Сиднеј, (интерни назив за Бинг АИ). Страшне ствари, зар не?

Зашто АИ модели халуцинирају?

АИ модели халуцинирају због недостатака алгоритама, основних модела или ограничења података за обуку. То је чисто дигитални феномен, за разлику од халуцинација код људи које су узроковане или дрогама или менталном болешћу.

Да бисмо добили више техничких информација, неки уобичајени узроци халуцинација су:

Обрада и монтажа:

Претеривање и неправилно постављање су међу најчешћим замкама са којима се суочавају АИ модели и могући узроци халуцинација. Ако АИ модел модификује податке о тренингу, то може да изазове халуцинације које доводе до нереалног излаза јер прекомерно прилагођавање узрокује да модел сачува податке о обуци уместо да учи из њих. Претеривање се односи на феномен када је модел превише специјализован за податке о обуци, што доводи до тога да научи небитне обрасце и шум у подацима.

С друге стране, неприкладност се јавља када је форма превише једноставна. То може довести до халуцинација јер модел није у стању да ухвати варијансу или сложеност података и на крају генерише ирационалне резултате.

Недостатак разноликости у подацима о обуци:

У овом контексту, проблем није алгоритам већ сами подаци о обуци. АИ модели обучени на ограниченим или пристрасним подацима могу генерисати халуцинације које одражавају ограничења или пристрасности у подацима о обуци. Халуцинације се такође могу јавити када је модел обучен на скупу података који садржи нетачне или непотпуне информације.

Комплексни модели:

Иронично, још један разлог зашто су АИ модели склони халуцинацијама је да ли су изузетно сложени или дубоки. То је зато што сложени модели имају више параметара и слојева који могу унети шум или грешке у излазу.

Непријатељски напади:

У неким случајевима нападач може намерно да генерише халуцинације АИ да би преварио АИ модел. Ове врсте напада су познате као непријатељски напади. Једина сврха овог сајбер напада је преварити или манипулисати АИ моделима са обмањујућим подацима. То укључује увођење малих пертурбација у улазне податке како би АИ генерисала нетачан или неочекивани излаз. На пример, нападач може додати шум или замућење на слику која је неприметна за људе, али узрокује да је АИ модел погрешно класификује. На пример, погледајте слику испод, мачка, која је мало модификована да би преварио компајлер ИнцептионВ3 да каже да је то „гуацамоле“.


кредит:
Анисх Атхали , члан истраживачке групе лабсик, чији је фокус на непријатељским нападима

Промене нису очигледно очигледне. За човека промена уопште неће бити могућа, као што је видљиво из претходног примера. Људски читалац не би имао проблема са категоризацијом слике са десне стране као мачкасте мачке. Али мале промене у сликама, видео записима, тексту или звуку могу преварити систем вештачке интелигенције да препозна ствари које не постоје или да игнорише ствари које постоје, као што је знак за заустављање.

Ове врсте напада представљају озбиљне претње системима вештачке интелигенције који се ослањају на тачна и поуздана предвиђања, као што су аутомобили који се сами возе, биометријска верификација, медицинска дијагностика, филтрирање садржаја и тако даље.

Колико је опасна АИ халуцинација?

АИ халуцинације могу бити веома опасне, посебно у зависности од тога који тип АИ система их доживљава. Било која самовозећа возила или АИ асистенти који могу да троше кориснички новац или АИ систем за филтрирање непријатног садржаја на мрежи морају бити потпуно поуздани.

Али неоспорна чињеница овог часа је да системи вештачке интелигенције нису сасвим поуздани, већ су, у ствари, склони халуцинацијама. Чак ни најнапреднији АИ модели данашњице нису имуни на то.

На пример, једна емисија напада преварила је Гоогле-ову услугу рачунарства у облаку да прати оружје попут хеликоптера. Можете ли замислити да је, у овом тренутку, АИ била одговорна да осигура да особа није наоружана?

Још један непријатељски напад показао је како додавање мале слике знаку стоп чини невидљивим за АИ систем. У суштини, то значи да ауто који се самостално може натерати да халуцинира да на путу нема знака стоп. Колико би се несрећа могло догодити да су самовозећи аутомобили данас стварност? Зато сада нису.

Чак и ако узмемо у обзир тренутно популарне емисије за ћаскање, халуцинације могу генерисати нетачан излаз. Али људи који не знају да су АИ цхат ботови склони халуцинацијама и да не потврђују резултате које производе АИ ботови, могу нехотице ширити дезинформације. Не морамо објашњавати колико је ово опасно.

Штавише, непријатељски напади су горућа брига. До сада су показивани само у лабораторијама. Али ако се систем вештачке интелигенције који је критичан за мисију суочи са њима у стварном свету, последице могу бити разорне.

Реалност је да је релативно лакше заштитити моделе природног језика. (Не кажемо да је то лако; ипак се показало да је веома тешко.) Међутим, заштита система компјутерског вида је потпуно другачији сценарио. Теже је посебно зато што постоји толико варијација у природном свету, а слике садрже велики број пиксела.

Да бисмо решили овај проблем, можда ће нам требати АИ програм који има више људски поглед на свет што би га могло учинити мање склоним халуцинацијама. Док се истраживања раде, још смо далеко од вештачке интелигенције која може покушати да узме наговештаје из природе и избегне проблем халуцинација. За сада су сурова реалност.

Генерално, АИ халуцинације су сложена појава која може настати комбинацијом фактора. Истраживачи активно развијају методе за откривање и ублажавање АИ халуцинација како би побољшали тачност и поузданост АИ система. Али требало би да их будете свесни када комуницирате са било којим системом вештачке интелигенције.

Релатед постс
Објавите чланак на

Додајте коментар