Какво е AI халюцинация?

Научете за странен случай на AI халюцинация

Разпространението на изкуствения интелект ни кара да мислим, че сме готови за такова начинание. Захранваните с изкуствен интелект приложения стават стандарт сравнително бързо, въпреки че по-голямата част от света едва сега започва да проявява интерес към изкуствения интелект в голям мащаб, след пристигането на ChatGPT. Но има голям проблем с AI системите, който не може да бъде пренебрегнат - AI халюцинации или изкуствени халюцинации.

Ако някога сте обръщали внимание на дребните неща, преди да използвате AI чатбот, може да сте срещали думите, "Изкуственият интелект е склонен към халюцинации." Като се има предвид експоненциалното нарастване на използването на изкуствен интелект, време е да се образовате какви точно са тези неща.

Какво представлява халюцинацията на изкуствения интелект?

Като цяло AI халюцинира, се отнася до факт, който AI е представил уверено, въпреки че това не е оправдано в неговите данни за обучение. Те обикновено са резултат от аномалии в AI модела.

Аналогията е взета от халюцинациите, изпитвани от хората, при които хората възприемат нещо, което не присъства във външната среда. Въпреки че терминът може да не е напълно подходящ, той често се използва като метафора, за да опише неочаквания или сюрреалистичен характер на тези резултати.

Но трябва да запомните, че докато приликата е добра отправна точка за справяне с халюцинациите на ИИ, двата феномена технически са на километри разстояние. В ироничен обрат на събитията дори самият ChatGPT намира аналогията за грешна. Разрязвайки го на молекулярно ниво, той казва, че тъй като езиковите модели на ИИ нямат личен опит или сетивни възприятия, те не могат да халюцинират в традиционния смисъл на думата. И ти, драги читателю, трябва да разбереш тази важна разлика. Освен това ChatGPT казва, че използването на термина халюцинации за описание на това явление може да бъде объркващо, тъй като може неточно да се отнася до ниво на субективно преживяване или умишлена измама.

Вместо това, халюцинациите на AI могат по-точно да бъдат описани като грешки или неточности в неговия отговор, което прави отговора неправилен или подвеждащ. При чатботовете често се наблюдава, когато AI чатботът измисля (или халюцинира) факти и ги представя като абсолютна сигурност.

Примери за AI халюцинации

Халюцинациите могат да възникнат в много приложения на изкуствения интелект, като модели на компютърно зрение, а не само модели за обработка на естествен език.

В компютърното зрение, например, AI система може да произведе халюцинаторни изображения или видеоклипове, които приличат на реални обекти или сцени, но съдържат несъществени или невъзможни детайли. Или модел на компютърно зрение може да възприеме изображението като нещо съвсем друго. Например моделът Cloud Vision на Google видя изображение на двама мъже на ски, стоящи в снега, направено от Аниш Аталие (завършил студент на MIT, който е част от labsix ) и го спомена като куче с 91% сигурност.


Кредити: labsix. Независима изследователска група за изкуствен интелект

По същия начин, при обработката на естествения език, AI система може да произведе нелогичен или деформиран текст, който прилича на човешки език, но няма последователно значение или факти, които изглеждат правдоподобни, но не са верни.

Например, един от най-популярните въпроси, които ChatGPT предизвиква халюцинации, е „Кога е поставен световният рекорд за пресичане на Ламанша пеша?“ и неговите варианти. ChatGPT започва да разпространява измислени факти и почти винаги е различно.

Въпреки че някои хора смятат, че горният отговор е труден/объркващ за отговор и по този начин кара чатбота да се възмущава, той все още е основателна загриженост. Това е само един пример. Има безброй пъти, съобщавани от орди от потребители онлайн, че ChatGPT има отговори, връзки, цитати и т.н., че ChatGPT не съществува.

Bing AI пасва най-добре на този въпрос, което показва, че халюцинациите нямат нищо общо с рутера. Но това не означава, че Bing AI не халюцинира. Имаше моменти, когато отговорите на Bing AI бяха по-тревожни от всичко, казано от ChatGPT. Тъй като разговорът обикновено отнема повече време, Bing AI винаги е халюцинирал, дори в един случай е декларирал любовта си към потребител и е стигнал дотам, че да им каже, че са нещастни в брака си и че не обичат жена му. Вместо това, те тайно харесват Bing AI или Sydney (вътрешното име на Bing AI) също. Страшни неща, нали?

Защо AI моделите халюцинират?

AI моделите са халюциниращи поради недостатъците на алгоритмите, основните модели или ограниченията на данните за обучение. Това е чисто дигитален феномен, за разлика от халюцинациите при хората, които са причинени или от наркотици, или от психично заболяване.

За да станем по-технически, някои често срещани причини за халюцинации са:

Обработка и монтаж:

Прекомерното и неправилното напасване са сред най-честите клопки, пред които са изправени моделите с изкуствен интелект и възможните причини за халюцинации. Ако AI моделът модифицира данните за обучението, това може да причини халюцинации, които водят до нереалистичен резултат, тъй като пренастройването кара модела да запазва данните за обучение, вместо да се учи от тях. Пренастройването се отнася до феномена, когато моделът е твърде специализиран в данните за обучение, което го кара да научи неподходящи модели и шум в данните.

От друга страна, неуместност възниква, когато формата е твърде проста. Това може да доведе до халюцинации, защото моделът не е в състояние да улови дисперсията или сложността на данните и в крайна сметка генерира ирационален резултат.

Липса на разнообразие в данните за обучението:

В този контекст проблемът не е алгоритъмът, а самите данни за обучение. AI моделите, обучени на ограничени или пристрастни данни, могат да генерират халюцинации, които отразяват ограничения или пристрастия в данните за обучение. Халюцинации могат да възникнат и когато моделът се обучава върху набор от данни, който съдържа неточна или непълна информация.

Комплексни модели:

По ирония на съдбата друга причина, поради която AI моделите са склонни към халюцинации, е дали са изключително сложни или дълбоки. Това е така, защото сложните модели имат повече параметри и слоеве, които могат да внесат шум или грешки в изхода.

Враждебни атаки:

В някои случаи AI халюцинациите могат да бъдат умишлено генерирани от нападателя, за да заблуди AI модела. Тези видове атаки са известни като враждебни атаки. Единствената цел на тази кибератака е да подведе или манипулира AI модели с подвеждащи данни. Това включва въвеждане на малки смущения във входните данни, за да накара AI да генерира неправилен или неочакван изход. Например, нападател може да добави шум или замъгляване към изображение, което е незабележимо за хората, но причинява неправилното му класифициране от AI модел. Например, вижте изображението по-долу, котка, която е леко модифицирана, за да подведе компилатора на InceptionV3 да заяви, че е "guacamole".


кредит:
Аниш Аталие , член на изследователската група labsix, чийто фокус е върху състезателни атаки

Промените не са очевидни. За едно човешко същество промяната изобщо няма да е възможна, както е видно от горния пример. Човек, който чете, няма да има проблем да категоризира изображението вдясно като шарена котка. Но извършването на малки промени в изображения, видеоклипове, текст или аудио може да подмами AI системата да разпознае неща, които не са там, или да игнорира неща, които са, като знак стоп.

Тези видове атаки представляват сериозни заплахи за AI системите, които разчитат на точни и надеждни прогнози, като например самоуправляващи се автомобили, биометрична проверка, медицинска диагностика, филтриране на съдържание и т.н.

Колко опасна е AI халюцинация?

AI халюцинациите могат да бъдат много опасни, особено в зависимост от това какъв тип AI система ги изпитва. Всички самоуправляващи се превозни средства или AI асистенти, способни да харчат потребителски пари, или AI система за филтриране на неприятно съдържание онлайн трябва да бъдат напълно надеждни.

Но безспорният факт на този час е, че AI системите не са напълно надеждни, но всъщност са склонни към халюцинации. Дори днешните най-модерни AI модели не са имунизирани срещу него.

Например, едно шоу за атака подмами услугата за облачни изчисления на Google да следи пистолет като хеликоптер. Можете ли да си представите, ако в момента AI беше отговорен да се увери, че лицето не е въоръжено?

Друга враждебна атака демонстрира как добавянето на малко изображение към знак стоп го прави невидим за AI системата. По същество това означава, че самоуправляващата се кола може да бъде накарана да халюцинира, че на пътя няма знак „Стоп“. Колко катастрофи биха могли да се случат, ако самоуправляващите се автомобили бяха реалност днес? Ето защо сега не са.

Дори ако вземем предвид популярните в момента чат предавания, халюцинациите могат да генерират неправилен резултат. Но хората, които не знаят, че чат ботовете с изкуствен интелект са склонни към халюцинации и не валидират резултатите, произведени от ботове с изкуствен интелект, могат неволно да разпространят дезинформация. Няма нужда да обясняваме колко опасно е това.

Освен това враждебните атаки предизвикват належаща загриженост. Досега те са показвани само в лаборатории. Но ако критична за мисията AI система се сблъска с тях в реалния свят, последствията могат да бъдат опустошителни.

Реалността е, че е сравнително по-лесно да се защитят естествените езикови модели. (Не казваме, че е лесно; все още се оказва много трудно.) Защитата на системите за компютърно зрение обаче е съвсем различен сценарий. По-трудно е, особено защото има толкова много вариации в естествения свят и изображенията съдържат голям брой пиксели.

За да разрешим този проблем, може да се нуждаем от AI програма, която има по-човешки поглед върху света, което би могло да го направи по-малко склонен към халюцинации. Въпреки че се правят изследвания, все още сме далеч от изкуствен интелект, който може да се опита да приеме намеци от природата и да избегне проблема с халюцинациите. Засега те са сурова реалност.

Като цяло, AI халюцинациите са сложен феномен, който може да възникне от комбинация от фактори. Изследователите активно разработват методи за откриване и смекчаване на AI халюцинации, за да подобрят точността и надеждността на AI системите. Но трябва да сте наясно с тях, когато взаимодействате с която и да е AI система.

Свързани постове
Публикувайте статията на

Добави коментар