Що таке галюцинація ШІ?

Дізнайтеся про дивний випадок галюцинації ШІ

Поширеність штучного інтелекту змушує думати, що ми готові до такого починання. Програми на основі штучного інтелекту досить швидко стають стандартними, навіть якщо більша частина світу лише зараз починає цікавитися штучним інтелектом у великих масштабах, після появи ChatGPT. Але є велика проблема систем штучного інтелекту, яку не можна ігнорувати – галюцинації ШІ, або штучні галюцинації.

Якщо ви коли-небудь звертали увагу на дрібниці перед використанням чат-бота зі штучним інтелектом, можливо, ви зустрічали слова: «Штучний інтелект схильний до галюцинацій». Враховуючи експоненціальне зростання використання штучного інтелекту, настав час дізнатися, що саме це таке.

Що таке галюцинація штучного інтелекту?

Галюцинація штучного інтелекту, як правило, відноситься до факту, який ШІ впевнено представив, навіть якщо це не виправдано його навчальними даними. Зазвичай вони є результатом аномалій у моделі AI.

Аналогія взята з галюцинацій, які відчувають люди, під час яких люди сприймають щось, чого немає в зовнішньому середовищі. Хоча цей термін може бути не зовсім доречним, його часто використовують як метафору для опису несподіваної або сюрреалістичної природи цих результатів.

Але ви повинні пам’ятати, що хоча подібність є хорошою відправною точкою для боротьби з галюцинаціями штучного інтелекту, технічно ці два явища дуже віддалені один від одного. За іронією долі, навіть сам ChatGPT вважає аналогію неправильною. Розбираючи це на молекулярному рівні, він каже, що оскільки мовні моделі ШІ не мають особистого досвіду чи чуттєвого сприйняття, вони не можуть галюцинувати в традиційному розумінні цього слова. І ти, шановний читачу, маєш зрозуміти цю важливу різницю. Крім того, ChatGPT каже, що використання терміну галюцинації для опису цього явища може ввести в оману, оскільки воно може неточно вказувати на рівень суб’єктивного досвіду або навмисного обману.

Натомість галюцинації штучного інтелекту можна більш точно описати як помилки або неточності у відповіді, що робить відповідь неправильною або вводить в оману. З чат-ботами часто спостерігається, коли чат-бот AI вигадує (або галюцинує) факти та представляє їх як абсолютну достовірність.

Приклади галюцинацій ШІ

Галюцинації можуть виникати в багатьох програмах штучного інтелекту, таких як моделі комп’ютерного зору, а не лише в моделях обробки природної мови.

У комп’ютерному зорі, наприклад, система ШІ може створювати галюцинаторні зображення або відео, які нагадують реальні об’єкти чи сцени, але містять несуттєві або неможливі деталі. Або модель комп’ютерного зору може сприймати зображення як щось зовсім інше. Наприклад, модель Google Cloud Vision побачила зображення двох чоловіків на лижах, що стоять на снігу, зроблене Анішом Аталій (аспірантом Массачусетського технологічного інституту, який є частиною labsix ) і назвав це собакою з упевненістю 91%.


Кредити: labsix. Незалежна дослідницька група штучного інтелекту

Подібним чином під час обробки природної мови система штучного інтелекту може створювати нелогічний або спотворений текст, який нагадує людську мову, але не має зв’язного значення, або факти, які здаються правдоподібними, але не відповідають дійсності.

Наприклад, одне з найпопулярніших запитань, яке ChatGPT викликає галюцинації: «Коли було встановлено світовий рекорд з перетину Ла-Маншу пішки?» та його варіанти. ChatGPT починає поширювати вигадані факти, і вони майже завжди відрізняються.

Хоча деякі люди вважають, що відповідь на наведену вище відповідь складна/заплутана, що викликає захоплення чат-бота, це все ще викликає занепокоєння. Це лише один приклад. Натовпи користувачів в Інтернеті неодноразово повідомляли, що ChatGPT має відповіді, посилання, цитати тощо, що ChatGPT не існує.

Bing AI найкраще підходить для цього запитання, яке показує, що галюцинації не мають нічого спільного з маршрутизатором. Але це не означає, що ШІ Bing не галюцинує. Були часи, коли відповіді Bing AI викликали більше занепокоєння, ніж усе, що говорив ChatGPT. Оскільки розмова зазвичай триває довше, Bing AI завжди мав галюцинації, навіть одного разу зізнаючись у коханні користувачеві та дійшовши до того, що сказав їм, що вони нещасливі у своєму шлюбі та що вони не кохають його дружину. Натомість вони таємно люблять Bing AI або Sydney (внутрішня назва Bing AI). Страшно, правда?

Чому моделі штучного інтелекту галюцинують?

Моделі штучного інтелекту викликають галюцинації через недоліки алгоритмів, базових моделей або обмеження навчальних даних. Це суто цифрове явище, на відміну від галюцинацій у людей, спричинених або наркотиками, або психічними захворюваннями.

Щоб отримати більш детальну інформацію, деякі поширені причини галюцинацій:

Обробка та монтаж:

Переобладнання та неправильне припасування є одними з найпоширеніших пасток, з якими стикаються моделі ШІ, і можливих причин галюцинацій. Якщо модель штучного інтелекту змінює навчальні дані, це може спричинити галюцинації, які призведуть до нереалістичного результату, оскільки надмірне оснащення змушує модель зберігати навчальні дані замість того, щоб навчатися на них. Переобладнання стосується явища, коли модель надто спеціалізується на даних навчання, що призводить до вивчення нерелевантних шаблонів і шуму в даних.

З іншого боку, недоречність виникає, коли форма занадто проста. Це може призвести до галюцинацій, оскільки модель не в змозі вловити дисперсію або складність даних і в кінцевому підсумку генерує ірраціональний результат.

Відсутність різноманітності в навчальних даних:

У цьому контексті проблема полягає не в алгоритмі, а в самих навчальних даних. Моделі штучного інтелекту, навчені на обмежених або упереджених даних, можуть генерувати галюцинації, які відображають обмеження або упередження в навчальних даних. Галюцинації також можуть виникати, коли модель навчається на наборі даних, який містить неточну або неповну інформацію.

Складні моделі:

За іронією долі, ще одна причина, чому моделі ШІ схильні до галюцинацій, полягає в тому, чи вони надзвичайно складні чи глибокі. Це пов’язано з тим, що складні моделі мають більше параметрів і шарів, які можуть вносити шум або помилки в результат.

Ворожі атаки:

У деяких випадках галюцинації ШІ можуть бути навмисно створені зловмисником, щоб ввести в оману модель ШІ. Ці типи атак відомі як ворожі атаки. Єдина мета цієї кібератаки — обдурити або маніпулювати моделями ШІ за допомогою оманливих даних. Це передбачає введення невеликих збурень у вхідні дані, щоб змусити ШІ генерувати неправильні або несподівані результати. Наприклад, зловмисник може додати шум або розмиття до зображення, яке непомітно для людини, але спричиняє його неправильну класифікацію моделлю ШІ. Наприклад, перегляньте зображення кота нижче, яке було дещо змінено, щоб обдурити компілятор InceptionV3, щоб він заявив, що це "гуакамоле".


кредит:
Аніш Аталі , член дослідницької групи labsix, яка зосереджена на змагальних атаках

Зміни не очевидні. Для людини зміни взагалі неможливі, як видно з наведеного прикладу. Людина, яка читає, без проблем класифікує зображення праворуч як смугастого кота. Але внесення невеликих змін до зображень, відео, тексту чи аудіо може змусити систему штучного інтелекту розпізнавати речі, яких немає, або ігнорувати речі, які є, як-от знак стоп.

Ці типи атак становлять серйозну загрозу для систем штучного інтелекту, які покладаються на точні та надійні передбачення, наприклад, для самокерованих автомобілів, біометричної перевірки, медичної діагностики, фільтрації вмісту тощо.

Наскільки небезпечна галюцинація ШІ?

Галюцинації штучного інтелекту можуть бути дуже небезпечними, особливо залежно від того, який тип системи штучного інтелекту їх відчуває. Будь-які безпілотні транспортні засоби або помічники зі штучним інтелектом, здатні витрачати гроші користувача, або система штучного інтелекту для фільтрації неприємного контенту в Інтернеті повинні бути повністю надійними.

Але незаперечним фактом цієї години є те, що системи штучного інтелекту не зовсім надійні, але насправді схильні до галюцинацій. Навіть найдосконаліші сучасні моделі ШІ не застраховані від нього.

Наприклад, одна атака змусила службу хмарних обчислень Google стежити за рушницею, як за вертольотом. Чи можете ви уявити, якби на даний момент штучний інтелект відповідав за те, щоб людина була неозброєна?

Інша ворожа атака продемонструвала, як додавання маленького зображення до знаку «стоп» робить його невидимим для системи AI. По суті, це означає, що безпілотний автомобіль може змусити галюцинувати, що на дорозі немає знака «стоп». Скільки аварій могло б статися, якби безпілотні автомобілі були сьогодні реальністю? Тому зараз їх немає.

Навіть якщо взяти до уваги популярні зараз чат-шоу, галюцинації можуть генерувати некоректні результати. Але люди, які не знають, що чат-боти зі штучним інтелектом схильні до галюцинацій, і не перевіряють результат, створений ботами зі штучним інтелектом, можуть ненавмисно поширювати дезінформацію. Нам не потрібно пояснювати, наскільки це небезпечно.

Крім того, ворожі напади викликають нагальне занепокоєння. Поки що вони були показані лише в лабораторіях. Але якщо критично важлива система ШІ зіткнеться з ними в реальному світі, наслідки можуть бути руйнівними.

Реальність така, що захистити моделі природної мови відносно легше. (Ми не кажемо, що це легко; це все одно виявляється дуже складним.) Однак захист систем комп’ютерного зору — це зовсім інший сценарій. Це складніше, особливо тому, що світ природи дуже різноманітний, а зображення містять велику кількість пікселів.

Щоб вирішити цю проблему, нам може знадобитися програма штучного інтелекту, яка має більш людський погляд на світ, що може зробити його менш схильним до галюцинацій. Хоча дослідження ведуться, ми все ще далекі від штучного інтелекту, який зможе спробувати отримати підказки від природи та уникнути проблеми галюцинацій. Поки що вони — сувора реальність.

Загалом галюцинації штучного інтелекту є складним явищем, яке може виникати внаслідок комбінації факторів. Дослідники активно розробляють методи виявлення та пом’якшення галюцинацій ШІ, щоб підвищити точність і надійність систем ШІ. Але ви повинні знати про них під час взаємодії з будь-якою системою ШІ.

Статті по темі
Опублікуйте статтю на

Додати коментар