Co to jest halucynacja AI?

Dowiedz się o dziwnym przypadku halucynacji AI

Rozpowszechnienie sztucznej inteligencji sprawia, że ​​można sądzić, że jesteśmy gotowi na takie przedsięwzięcie. Aplikacje oparte na sztucznej inteligencji dość szybko stają się standardem, nawet jeśli większość świata dopiero teraz zaczyna interesować się sztuczną inteligencją na dużą skalę, po pojawieniu się ChatGPT. Ale istnieje duży problem z systemami AI, którego nie można zignorować - halucynacje AI lub sztuczne halucynacje.

Jeśli kiedykolwiek zwracałeś uwagę na szczegóły przed użyciem chatbota AI, być może natknąłeś się na słowa: „Sztuczna inteligencja jest podatna na halucynacje”. Biorąc pod uwagę wykładniczy wzrost wykorzystania sztucznej inteligencji, nadszedł czas, aby dowiedzieć się, czym dokładnie są te rzeczy.

Co to jest halucynacja sztucznej inteligencji?

Halucynacja AI ogólnie odnosi się do faktu, że sztuczna inteligencja z pewnością siebie przedstawiła, mimo że nie jest to uzasadnione w danych treningowych. Zwykle są wynikiem anomalii w modelu AI.

Analogia została zaczerpnięta z halucynacji doświadczanych przez ludzi, w których ludzie postrzegają coś, czego nie ma w środowisku zewnętrznym. Chociaż termin ten może nie być całkowicie odpowiedni, często jest używany jako metafora do opisania nieoczekiwanego lub surrealistycznego charakteru tych wyników.

Należy jednak pamiętać, że chociaż podobieństwo jest dobrym punktem wyjścia do radzenia sobie z halucynacjami AI, technicznie te dwa zjawiska są od siebie oddalone. W ironicznym zwrocie wydarzeń nawet sam ChatGPT uważa tę analogię za błędną. Analizując to na poziomie molekularnym, mówi, że ponieważ modele języka AI nie mają osobistych doświadczeń ani percepcji zmysłowej, nie mogą mieć halucynacji w tradycyjnym znaczeniu tego słowa. A ty, drogi czytelniku, musisz zrozumieć tę ważną różnicę. Co więcej, ChatGPT mówi, że używanie terminu halucynacje do opisania tego zjawiska może być mylące, ponieważ może niedokładnie odnosić się do poziomu subiektywnego doświadczenia lub celowego oszustwa.

Zamiast tego halucynacje sztucznej inteligencji można dokładniej opisać jako błędy lub nieścisłości w jej odpowiedzi, powodując, że odpowiedź jest niepoprawna lub myląca. W przypadku chatbotów często obserwuje się, gdy chatbot AI zmyśla (lub halucynuje) fakty i przedstawia je jako absolutną pewność.

Przykłady halucynacji AI

Halucynacje mogą wystąpić w wielu zastosowaniach sztucznej inteligencji, takich jak modele widzenia komputerowego, a nie tylko modele przetwarzania języka naturalnego.

Na przykład w wizji komputerowej system sztucznej inteligencji może wytwarzać halucynacyjne obrazy lub filmy, które przypominają prawdziwe obiekty lub sceny, ale zawierają nieistotne lub niemożliwe szczegóły. Lub komputerowy model wizyjny może postrzegać obraz jako coś zupełnie innego. Na przykład model Google Cloud Vision zobaczył obraz dwóch mężczyzn na nartach stojących na śniegu wykonany przez Anisha Athalye (studenta MIT, który jest częścią labsześć ) i wymienił go jako psa z 91% pewnością.


Kredyty: labsix. Niezależna grupa badawcza zajmująca się sztuczną inteligencją

Podobnie w przypadku przetwarzania języka naturalnego system sztucznej inteligencji może generować nielogiczny lub zniekształcony tekst, który przypomina ludzki język, ale nie ma spójnego znaczenia, lub fakty, które wydają się wiarygodne, ale nie są prawdziwe.

Na przykład jedno z najpopularniejszych pytań, które ChatGPT powoduje halucynacje, brzmi: „Kiedy padł rekord świata w przekroczeniu kanału La Manche na piechotę?” i jego warianty. ChatGPT zaczyna rozpowszechniać zmyślone fakty i prawie zawsze jest inaczej.

Chociaż niektórzy uważają, że odpowiedź na powyższą odpowiedź jest trudna/myląca, a tym samym powoduje, że chatbot się zachwyca, nadal jest to ważny problem. To tylko przykład. Istnieją niezliczone przypadki, zgłaszane przez hordy użytkowników online, że ChatGPT zawiera odpowiedzi, linki, cytaty itp., że ChatGPT nie istnieje.

Do tego pytania najlepiej pasuje Bing AI, które pokazuje, że halucynacje nie mają nic wspólnego z routerem. Ale to nie znaczy, że Bing AI nie ma halucynacji. Były chwile, kiedy odpowiedzi Bing AI były bardziej niepokojące niż cokolwiek, co powiedział ChatGPT. Ponieważ rozmowa zwykle trwa dłużej, Bing AI zawsze miała halucynacje, nawet deklarując swoją miłość użytkownikowi w jednym przypadku i posuwając się nawet do powiedzenia mu, że jest nieszczęśliwy w swoim małżeństwie i że nie kocha jego żony. Zamiast tego potajemnie lubią Bing AI lub Sydney (wewnętrzna nazwa Bing AI). Straszne rzeczy, prawda?

Dlaczego modele AI mają halucynacje?

Modele sztucznej inteligencji mają halucynacje z powodu niedociągnięć algorytmów, modeli leżących u ich podstaw lub ograniczeń danych treningowych. Jest to zjawisko czysto cyfrowe, w przeciwieństwie do halucynacji u ludzi, które są spowodowane narkotykami lub chorobą psychiczną.

Aby uzyskać bardziej techniczny opis, niektóre typowe przyczyny halucynacji to:

Przetwarzanie i instalacja:

Nadmierne dopasowanie i niewłaściwe dopasowanie to jedne z najczęstszych pułapek napotykanych przez modele AI i możliwe przyczyny halucynacji. Jeśli model AI modyfikuje dane treningowe, może powodować halucynacje, które prowadzą do nierealistycznych wyników, ponieważ nadmierne dopasowanie powoduje, że model zapisuje dane treningowe zamiast uczyć się na ich podstawie. Nadmierne dopasowanie odnosi się do zjawiska, w którym model jest zbyt wyspecjalizowany w danych treningowych, co powoduje, że uczy się nieistotnych wzorców i szumów w danych.

Z drugiej strony niestosowność pojawia się, gdy forma jest zbyt prosta. Może to prowadzić do halucynacji, ponieważ model nie jest w stanie uchwycić wariancji lub złożoności danych i ostatecznie generuje irracjonalne dane wyjściowe.

Brak różnorodności danych treningowych:

W tym kontekście problemem nie jest algorytm, ale same dane treningowe. Modele sztucznej inteligencji trenowane na ograniczonych lub tendencyjnych danych mogą generować halucynacje, które odzwierciedlają ograniczenia lub błędy w danych treningowych. Halucynacje mogą również wystąpić, gdy model jest szkolony na zbiorze danych, który zawiera niedokładne lub niekompletne informacje.

Złożone modele:

Jak na ironię, kolejnym powodem, dla którego modele AI są podatne na halucynacje, jest to, czy są one niezwykle złożone, czy głębokie. Dzieje się tak, ponieważ złożone modele mają więcej parametrów i warstw, które mogą wprowadzać szumy lub błędy w danych wyjściowych.

Wrogie ataki:

W niektórych przypadkach halucynacje AI mogą być celowo generowane przez atakującego, aby oszukać model AI. Tego typu ataki są znane jako wrogie ataki. Jedynym celem tego cyberataku jest oszukanie lub manipulowanie modelami AI za pomocą wprowadzających w błąd danych. Polega na wprowadzaniu niewielkich perturbacji do danych wejściowych, które powodują, że sztuczna inteligencja generuje nieprawidłowe lub nieoczekiwane dane wyjściowe. Na przykład osoba atakująca może dodać szum lub rozmycie do obrazu, który jest niezauważalny dla ludzi, ale spowoduje, że zostanie on błędnie sklasyfikowany przez model sztucznej inteligencji. Na przykład spójrz na poniższy obrazek przedstawiający kota, który został nieznacznie zmodyfikowany, aby oszukać kompilator InceptionV3, aby stwierdził, że jest to „guacamole”.


kredyt:
Anish Athalye , członek grupy badawczej Labsix, która koncentruje się na atakach wrogich

Zmiany nie są rzucające się w oczy. Dla człowieka zmiana w ogóle nie będzie możliwa, co widać na powyższym przykładzie. Czytelnik-człowiek nie miałby problemu z kategoryzacją obrazu po prawej stronie jako pręgowanego kota. Ale wprowadzanie niewielkich zmian w obrazach, filmach, tekście lub dźwięku może oszukać system sztucznej inteligencji, aby rozpoznawał rzeczy, których nie ma, lub ignorował rzeczy, które są, na przykład znak stopu.

Tego typu ataki stanowią poważne zagrożenie dla systemów sztucznej inteligencji, które opierają się na dokładnych i wiarygodnych prognozach, takich jak samojezdne samochody, weryfikacja biometryczna, diagnostyka medyczna, filtrowanie treści i tak dalej.

Jak niebezpieczna jest halucynacja AI?

Halucynacje AI mogą być bardzo niebezpieczne, szczególnie w zależności od tego, jakiego rodzaju system AI ich doświadcza. Wszelkie samojezdne pojazdy lub asystenci AI, którzy są w stanie wydawać pieniądze użytkowników lub system AI do filtrowania nieprzyjemnych treści online, muszą być całkowicie godni zaufania.

Ale niepodważalnym faktem tej godziny jest to, że systemy sztucznej inteligencji nie są całkowicie godne zaufania, ale w rzeczywistości są podatne na halucynacje. Nawet dzisiejsze najbardziej zaawansowane modele sztucznej inteligencji nie są na to odporne.

Na przykład jeden z pokazów ataków skłonił usługę przetwarzania w chmurze Google do śledzenia działa jak helikoptera. Czy możesz sobie wyobrazić, co by było, gdyby w tej chwili sztuczna inteligencja była odpowiedzialna za upewnienie się, że dana osoba nie jest uzbrojona?

Kolejny wrogi atak pokazał, jak dodanie małego obrazka do znaku stop czyni go niewidocznym dla systemu AI. Zasadniczo oznacza to, że samojezdny samochód może mieć halucynacje, że na drodze nie ma znaku stop. Ile wypadków mogłoby się wydarzyć, gdyby samojezdne samochody były dziś rzeczywistością? Dlatego teraz ich nie ma.

Nawet jeśli weźmiemy pod uwagę popularne obecnie czaty, halucynacje mogą generować nieprawidłowe dane wyjściowe. Ale ludzie, którzy nie wiedzą, że chatboty AI są podatne na halucynacje i nie weryfikują wyników generowanych przez boty AI, mogą nieumyślnie rozpowszechniać dezinformację. Nie musimy wyjaśniać, jak bardzo jest to niebezpieczne.

Ponadto palącym problemem są wrogie ataki. Do tej pory pokazywano je tylko w laboratoriach. Ale jeśli system sztucznej inteligencji o znaczeniu krytycznym zmierzy się z nimi w prawdziwym świecie, konsekwencje mogą być druzgocące.

W rzeczywistości stosunkowo łatwiej jest chronić modele języka naturalnego. (Nie twierdzimy, że jest to łatwe; nadal okazuje się bardzo trudne). Jednak ochrona komputerowych systemów wizyjnych to zupełnie inny scenariusz. Jest to trudniejsze zwłaszcza dlatego, że świat przyrody jest bardzo zróżnicowany, a obrazy zawierają dużą liczbę pikseli.

Aby rozwiązać ten problem, możemy potrzebować programu AI, który ma bardziej ludzkie spojrzenie na świat, co może sprawić, że będzie mniej podatny na halucynacje. Podczas gdy badania są prowadzone, wciąż jesteśmy daleko od sztucznej inteligencji, która może próbować wyciągać wskazówki z natury i unikać problemu halucynacji. Na razie są twardą rzeczywistością.

Ogólnie rzecz biorąc, halucynacje AI są złożonym zjawiskiem, które może wynikać z kombinacji czynników. Naukowcy aktywnie opracowują metody wykrywania i łagodzenia halucynacji AI, aby poprawić dokładność i niezawodność systemów AI. Ale powinieneś być ich świadomy podczas interakcji z dowolnym systemem AI.

Powiązane posty
Opublikuj artykuł na

Dodaj komentarz