Што е халуцинација со вештачка интелигенција?

Дознајте за чуден случај на халуцинација со вештачка интелигенција

Распространетоста на вештачката интелигенција тера да мислиме дека сме подготвени за таков потфат. Апликациите со вештачка интелигенција стануваат стандардни прилично брзо, дури и ако поголемиот дел од светот дури сега почнува да се интересира за вештачката интелигенција во голем обем, по доаѓањето на ChatGPT. Но, постои голем проблем со системите за вештачка интелигенција што не може да се игнорира - халуцинации со вештачка интелигенција или вештачки халуцинации.

Ако некогаш сте обрнале внимание на nitty gritty пред да користите чат-бот со вештачка интелигенција, можеби сте налетале на зборовите: „Вештачката интелигенција е склона кон халуцинации. Со оглед на експоненцијалното зголемување на употребата на вештачка интелигенција, време е да се едуцирате за тоа што точно се овие работи.

Што е халуцинација со вештачка интелигенција?

Халуцинирачката вештачка интелигенција, генерално, се однесува на фактот што вештачката интелигенција самоуверено го презентирала, иако тоа не е оправдано во податоците за обуката. Тие обично се резултат на аномалии во моделот на вештачка интелигенција.

Аналогијата е преземена од халуцинации кои ги доживуваат луѓето, во кои луѓето перцепираат нешто што не е присутно во надворешната средина. Иако терминот можеби не е сосема соодветен, тој често се користи како метафора за да се опише неочекуваната или надреалната природа на овие резултати.

Но, треба да запомните дека иако сличноста е добра почетна точка за справување со халуцинации со вештачка интелигенција, двата феномени технички се оддалечени со километри. Во ироничен пресврт на настаните, дури и самиот ChatGPT смета дека аналогијата е погрешна. Дисецирајќи го на молекуларно ниво, тој вели дека бидејќи моделите на јазични ВИ немаат лично искуство или сетилни перцепции, тие не можат да халуцинираат во традиционалната смисла на зборот. А вие, драг читателу, треба да ја разберете оваа важна разлика. Понатаму, ChatGPT вели дека користењето на терминот халуцинации за да се опише овој феномен може да биде збунувачки бидејќи може неточно да се однесува на ниво на субјективно искуство или намерна измама.

Наместо тоа, халуцинациите на вештачката интелигенција може попрецизно да се опишат како грешки или неточности во нејзиниот одговор, што го прави одговорот неточен или погрешен. Со чет-ботови, често се забележува кога четботот со вештачка интелигенција измислува (или халуцинира) факти и ги прикажува како апсолутна сигурност.

Примери на халуцинации со вештачка интелигенција

Халуцинации може да се појават во многу примени на вештачката интелигенција, како што се моделите за компјутерска визија, а не само моделите за обработка на природни јазици.

Во компјутерската визија, на пример, системот за вештачка интелигенција може да произведе халуцинаторни слики или видеа што личат на вистински предмети или сцени, но содржат незначителни или невозможни детали. Или, моделот на компјутерска визија може да ја сфати сликата како нешто сосема друго. На пример, моделот Cloud Vision на Google виде слика на двајца мажи на скии кои стојат на снегот, направена од Аниш Аталие (дипломиран студент на МИТ, кој е дел од лабсикс ) и го спомна како куче со 91% сигурност.


Кредити: labsix. Независна истражувачка група за вештачка интелигенција

Слично на тоа, при обработката на природниот јазик, системот за вештачка интелигенција може да произведе нелогичен или измешан текст кој личи на човечки јазик, но нема кохерентно значење или факти кои изгледаат веродостојни, но не се вистинити.

На пример, едно од најпопуларните прашања што ChatGPT предизвикува халуцинации е „Кога беше поставен светскиот рекорд за преминување на Ла Манш пеш? и неговите варијанти. ChatGPT почнува да шири измислени факти и речиси секогаш е поинаку.

Додека некои луѓе мислат дека горенаведениот одговор е тешко/збунувачки за да се одговори и на тој начин предизвикуваат расипување на четботот, тој сепак е валидна загриженост. Ова е само еден пример. Има безброј пати, пријавени од страна на орди на корисници на интернет, дека ChatGPT има одговори, линкови, цитати итн. дека ChatGPT не постои.

Bing AI најдобро одговара на ова прашање, што покажува дека халуцинациите немаат никаква врска со рутерот. Но, тоа не значи дека Bing AI не халуцинира. Имаше моменти кога одговорите на Bing AI беа повознемирувачки од било што рече ChatGPT. Бидејќи разговорот има тенденција да трае подолго, Bing AI отсекогаш халуцинирал, дури и во еден пример му ја изјавувал својата љубов на корисникот и отишол дотаму што му кажувал дека се несреќни во бракот и дека не ја сакаат неговата сопруга. Наместо тоа, тие тајно го сакаат Bing AI, или Сиднеј, (внатрешно име за Bing AI). Страшни работи, нели?

Зошто моделите со вештачка интелигенција халуцинираат?

Моделите со вештачка интелигенција халуцинираат поради недостатоците на алгоритмите, основните модели или ограничувањата на податоците за обуката. Тоа е чисто дигитален феномен, за разлика од халуцинациите кај луѓето кои се предизвикани или од дрога или од ментална болест.

За да добиете повеќе технички, некои вообичаени причини за халуцинации се:

Обработка и инсталација:

Прекумерното поставување и несоодветното поставување се меѓу најчестите замки со кои се соочуваат моделите со вештачка интелигенција и можните причини за халуцинации. Ако моделот на вештачка интелигенција ги модифицира податоците за обуката, може да предизвика халуцинации што доведуваат до нереален резултат бидејќи преоптоварувањето предизвикува моделот да ги зачува податоците за обуката наместо да учи од нив. Прекумерното поставување се однесува на феноменот кога моделот е премногу специјализиран за податоците за обуката, што предизвикува да научи неважни обрасци и бучава во податоците.

Од друга страна, несоодветноста се јавува кога формата е премногу едноставна. Тоа може да доведе до халуцинации бидејќи моделот не е во состојба да ја долови варијансата или сложеноста на податоците и на крајот генерира ирационален излез.

Недостаток на разновидност во податоците за обуката:

Во овој контекст, проблемот не е алгоритмот туку самите податоци за обуката. Моделите со вештачка интелигенција обучени на ограничени или пристрасни податоци може да генерираат халуцинации кои одразуваат ограничувања или предрасуди во податоците за обуката. Халуцинации може да се појават и кога моделот е обучен на збир на податоци што содржи неточни или нецелосни информации.

Комплексни модели:

Иронично, уште една причина зошто моделите со вештачка интелигенција се склони кон халуцинации е дали се екстремно сложени или длабоки. Тоа е затоа што сложените модели имаат повеќе параметри и слоеви кои можат да внесат шум или грешки на излезот.

Непријателски напади:

Во некои случаи, халуцинации со вештачка интелигенција може да бидат намерно генерирани од напаѓачот за да го измами моделот на вештачка интелигенција. Овие типови на напади се познати како непријателски напади. Единствената цел на овој сајбер напад е да ги измами или манипулира моделите со вештачка интелигенција со погрешни податоци. Вклучува воведување мали пертурбации во влезните податоци за да предизвика вештачката интелигенција да генерира неточен или неочекуван излез. На пример, напаѓачот може да додаде шум или заматување на слика што е незабележлива за луѓето, но предизвикува таа да биде погрешно класифицирана од модел со вештачка интелигенција. На пример, видете ја сликата подолу, мачка, која е малку изменета за да го измами компајлерот на InceptionV3 да изјави дека е „гуакамоле“.


кредит:
Аниш Аталие , член на истражувачката група labsix, чиј фокус е на противнички напади

Промените не се блескаво очигледни. За човечко суштество, промената воопшто нема да биде можна, како што е видливо од горниот пример. Човечкиот читател не би имал проблем да ја категоризира сликата од десната страна како мачка. Но, правењето мали промени на слики, видеа, текст или аудио може да го измами системот за вештачка интелигенција да препознае работи што ги нема или да ги игнорира работите што се, како знак за стоп.

Овие типови на напади претставуваат сериозни закани за системите за вештачка интелигенција кои се потпираат на точни и сигурни предвидувања, како што се самоуправувачки автомобили, биометриска верификација, медицинска дијагностика, филтрирање содржина итн.

Колку е опасна халуцинацијата со вештачка интелигенција?

Халуцинациите со вештачка интелигенција можат да бидат многу опасни, особено во зависност од тоа каков тип на ВИ систем ги доживува. Секое самоуправувачко возило или помошници со вештачка интелигенција способни да трошат кориснички пари или систем за вештачка интелигенција за филтрирање на непријатни содржини на интернет мора да бидат целосно доверливи.

Но, неоспорен факт на овој час е дека системите со вештачка интелигенција не се целосно доверливи, туку се, всушност, склони кон халуцинации. Ниту најнапредните модели со вештачка интелигенција на денешницата не се имуни на тоа.

На пример, една емисија за напад ја измами услугата за пресметување облак на Google во опашката на пиштол како хеликоптер. Можете ли да замислите дали, во моментот, вештачката интелигенција била одговорна да се осигура дека лицето не е вооружено?

Друг непријателски напад покажа како додавањето мала слика на знакот за стоп го прави невидлив за системот на вештачка интелигенција. Во суштина, ова значи дека самоуправувачки автомобил може да се направи да халуцинира дека нема знак за стоп на патот. Колку несреќи би можеле да се случат доколку самоуправувачките автомобили беа реалност денес? Затоа сега не се.

Дури и ако ги земеме предвид моментално популарните емисии за разговор, халуцинациите можат да генерираат неточен резултат. Но, луѓето кои не знаат дека чет-ботите со вештачка интелигенција се склони кон халуцинации и не го потврдуваат излезот произведен од ботови со вештачка интелигенција, може ненамерно да шират дезинформации. Не треба да објаснуваме колку е ова опасно.

Понатаму, непријателските напади се итна загриженост. Досега се покажаа само во лаборатории. Но, ако систем за вештачка интелигенција кој е критичен за мисијата се соочи со нив во реалниот свет, последиците можат да бидат поразителни.

Реалноста е дека е релативно полесно да се заштитат моделите на природни јазици. (Не велиме дека е лесно; сепак се покажува како многу тешко.) Сепак, заштитата на системите за компјутерска визија е сосема поинакво сценарио. Потешко е особено затоа што има толку многу варијации во природниот свет, а сликите содржат голем број пиксели.

За да го решиме овој проблем, можеби ќе ни треба програма за вештачка интелигенција која има почовечки поглед на светот што би можело да го направи помалку склон кон халуцинации. Додека се прават истражувања, сè уште сме далеку од вештачката интелигенција која може да се обиде да земе совети од природата и да го избегне проблемот со халуцинации. Засега тие се сурова реалност.

Општо земено, халуцинациите со вештачка интелигенција се сложен феномен што може да произлезе од комбинација на фактори. Истражувачите активно развиваат методи за откривање и ублажување на халуцинации со вештачка интелигенција за да ја подобрат точноста и доверливоста на системите со вештачка интелигенција. Но, треба да бидете свесни за нив кога комуницирате со кој било систем за вештачка интелигенција.

поврзани мислења
Објавете ја статијата на

Додај коментар