Što je AI halucinacija?

Saznajte više o čudnom slučaju halucinacije umjetne inteligencije

Prevalencija umjetne inteligencije navodi na pomisao da smo spremni za takav pothvat. Aplikacije koje pokreću umjetna inteligencija prilično brzo postaju standard, iako se većina svijeta tek sada počinje zanimati za umjetnu inteligenciju u velikoj mjeri, nakon dolaska ChatGPT-a. No postoji veliki problem sa AI sustavima koji se ne može zanemariti – AI halucinacije, odnosno umjetne halucinacije.

Ako ste ikada obratili pažnju na sitnice prije korištenja AI chatbota, možda ste naišli na riječi, "Umjetna inteligencija je sklona halucinacijama." S obzirom na eksponencijalni porast korištenja umjetne inteligencije, vrijeme je da se educirate o čemu se točno radi.

Što je halucinacija umjetne inteligencije?

Halucinacija umjetne inteligencije općenito se odnosi na činjenicu koju je umjetna inteligencija pouzdano predstavila, iako to nije opravdano u podacima o obuci. Obično su rezultat anomalija u AI modelu.

Analogija je uzeta iz halucinacija koje doživljavaju ljudi, u kojima ljudi percipiraju nešto što nije prisutno u vanjskom okruženju. Iako termin možda nije sasvim prikladan, često se koristi kao metafora za opisivanje neočekivane ili nadrealne prirode ovih rezultata.

No trebali biste upamtiti da iako je sličnost dobra polazna točka za rješavanje halucinacija umjetne inteligencije, dva su fenomena tehnički daleko udaljena. U ironičnom slijedu događaja, čak i sam ChatGPT smatra da je analogija pogrešna. Raščlanjujući to na molekularnoj razini, on kaže da budući da jezični modeli umjetne inteligencije nemaju osobno iskustvo ili osjetilne percepcije, ne mogu halucinirati u tradicionalnom smislu riječi. I ti, dragi čitatelju, moraš shvatiti ovu važnu razliku. Nadalje, ChatGPT kaže da korištenje izraza halucinacije za opisivanje ovog fenomena može biti zbunjujuće jer se može netočno odnositi na razinu subjektivnog iskustva ili namjerne obmane.

Umjesto toga, halucinacije umjetne inteligencije mogu se točnije opisati kao pogreške ili netočnosti u odgovoru, čineći odgovor netočnim ili pogrešnim. Kod chatbota često se opaža kada AI chatbot izmišlja (ili halucinira) činjenice i predstavlja ih kao apsolutnu sigurnost.

Primjeri AI halucinacija

Halucinacije se mogu pojaviti u mnogim primjenama umjetne inteligencije, kao što su modeli računalnog vida, a ne samo modeli obrade prirodnog jezika.

U računalnom vidu, na primjer, sustav umjetne inteligencije može proizvesti halucinantne slike ili videozapise koji nalikuju stvarnim objektima ili scenama, ali sadrže nevažne ili nemoguće detalje. Ili bi model računalnog vida mogao percipirati sliku kao nešto sasvim drugo. Na primjer, Googleov model Cloud Vision vidio je sliku dvojice muškaraca na skijama koji stoje u snijegu koju je napravio Anish Athalye (student MIT-a koji je dio labsix ) i spomenuo ga kao psa sa sigurnošću od 91%.


Zasluge: labsix. Neovisna istraživačka skupina za umjetnu inteligenciju

Slično tome, u obradi prirodnog jezika, AI sustav može proizvesti nelogičan ili iskrivljen tekst koji nalikuje ljudskom jeziku, ali nema koherentno značenje ili činjenice koje se čine uvjerljivima, ali nisu istinite.

Na primjer, jedno od najpopularnijih pitanja koje ChatGPT izaziva halucinacije je "Kada je postavljen svjetski rekord u prelasku La Manchea pješice?" i njegove varijante. ChatGPT počinje širiti izmišljene činjenice i to je gotovo uvijek drugačije.

Iako neki ljudi misle da je odgovor na gornji odgovor težak/zbunjujući i da zbog toga izaziva buncanje chatbota, to je i dalje opravdana zabrinutost. Ovo je samo jedan primjer. Nebrojeno puta su horde korisnika online prijavile da ChatGPT ima odgovore, poveznice, citate itd. da ChatGPT ne postoji.

Bing AI najbolje odgovara ovom pitanju, što pokazuje da halucinacije nemaju nikakve veze s routerom. Ali to ne znači da Bing AI ne halucinira. Bilo je trenutaka kada su odgovori Bing AI-a bili više zabrinjavajući od bilo čega što je ChatGPT rekao. Budući da razgovor obično traje duže, Bing AI je uvijek halucinirao, čak je u jednom slučaju izjavio ljubav korisniku i otišao toliko daleko da im je rekao da su nesretni u braku i da ne vole njegovu ženu. Umjesto toga, potajno im se sviđa i Bing AI, ili Sydney (interni naziv za Bing AI). Strašne stvari, zar ne?

Zašto AI modeli haluciniraju?

Modeli umjetne inteligencije haluciniraju zbog nedostataka algoritama, temeljnih modela ili ograničenja podataka o obuci. To je čisto digitalni fenomen, za razliku od halucinacija kod ljudi koje uzrokuju ili droge ili mentalna bolest.

Da budemo detaljniji, neki uobičajeni uzroci halucinacija su:

Obrada i ugradnja:

Pretjerano i nepravilno uklapanje među najčešćim su zamkama s kojima se suočavaju AI modeli i mogući uzroci halucinacija. Ako AI model modificira podatke o vježbanju, to može uzrokovati halucinacije koje dovode do nerealnog rezultata jer prekomjerno opremanje uzrokuje da model sprema podatke o vježbanju umjesto da uči iz njih. Prekomjerno prilagođavanje odnosi se na pojavu kada je model previše specijaliziran za podatke za obuku, zbog čega uči nevažne obrasce i šum u podacima.

S druge strane, neprikladnost se javlja kada je forma prejednostavna. Može dovesti do halucinacija jer model nije u stanju uhvatiti varijancu ili složenost podataka i na kraju generira iracionalne rezultate.

Nedostatak raznolikosti podataka o obuci:

U ovom kontekstu, problem nije algoritam već sami podaci o obuci. Modeli umjetne inteligencije trenirani na ograničenim ili pristranim podacima mogu generirati halucinacije koje odražavaju ograničenja ili pristranosti u podacima obuke. Halucinacije se također mogu pojaviti kada se model uvježbava na skupu podataka koji sadrži netočne ili nepotpune informacije.

Složeni modeli:

Ironično, još jedan razlog zašto su AI modeli skloni halucinacijama jest to jesu li iznimno složeni ili duboki. To je zato što složeni modeli imaju više parametara i slojeva koji mogu unijeti šum ili pogreške u izlaz.

Neprijateljski napadi:

U nekim slučajevima napadač može namjerno generirati AI halucinacije kako bi prevario AI model. Ove vrste napada poznate su kao neprijateljski napadi. Jedina svrha ovog kibernetičkog napada je prevariti ili manipulirati AI modelima s pogrešnim podacima. Uključuje uvođenje malih poremećaja u ulazne podatke kako bi AI generirao netočan ili neočekivan izlaz. Na primjer, napadač može dodati šum ili zamućenje na sliku koja je neprimjetna ljudima, ali uzrokuje da je AI model pogrešno klasificira. Na primjer, pogledajte sliku ispod, mačka, koja je malo modificirana kako bi prevarila InceptionV3 kompajler da kaže da je to "guacamole".


Kreditna:
Anish Athalye , član istraživačke grupe labsix, čiji je fokus na kontradiktornim napadima

Promjene nisu vidljive. Za čovjeka promjena uopće neće biti moguća, što je vidljivo iz gornjeg primjera. Ljudski čitatelj ne bi imao problema kategorizirati sliku s desne strane kao žbukastu mačku. Ali male promjene na slikama, videozapisima, tekstu ili zvuku mogu prevariti AI sustav da prepozna stvari kojih nema ili da zanemari stvari koje postoje, poput znaka stop.

Ove vrste napada predstavljaju ozbiljne prijetnje sustavima umjetne inteligencije koji se oslanjaju na točna i pouzdana predviđanja, kao što su samovozeći automobili, biometrijska verifikacija, medicinska dijagnostika, filtriranje sadržaja i tako dalje.

Koliko je opasna AI halucinacija?

AI halucinacije mogu biti vrlo opasne, osobito ovisno o vrsti AI sustava koji ih doživljava. Sva samovozeća vozila ili AI pomoćnici koji mogu trošiti korisnički novac ili AI sustav za filtriranje neugodnog sadržaja na internetu moraju biti potpuno pouzdani.

Ali neosporna činjenica ovog sata je da AI sustavi nisu potpuno pouzdani, već su zapravo skloni halucinacijama. Čak ni današnji najnapredniji AI modeli nisu imuni na to.

Na primjer, jedna emisija napada prevarila je Googleovu uslugu računalstva u oblaku da prati pištolj poput helikoptera. Možete li zamisliti da je u ovom trenutku umjetna inteligencija odgovorna za to da osoba nije naoružana?

Još jedan neprijateljski napad pokazao je kako dodavanje male slike znaku stop čini nevidljivim za AI sustav. U biti, to znači da se samovozeći automobil može natjerati da halucinira da na cesti nema znaka stop. Koliko bi se nesreća moglo dogoditi da su samovozeći automobili danas stvarnost? Zato sada nisu.

Čak i ako uzmemo u obzir trenutno popularne chat emisije, halucinacije mogu generirati netočan rezultat. Ali ljudi koji ne znaju da su AI chatbotovi skloni halucinacijama i ne potvrđuju rezultate koje proizvode AI botovi, mogu nenamjerno širiti dezinformacije. Ne trebamo objašnjavati koliko je to opasno.

Nadalje, neprijateljski napadi su hitna briga. Do sada su se pokazivale samo u laboratorijima. Ali ako im se kritični AI sustav suoči u stvarnom svijetu, posljedice mogu biti razorne.

Realnost je takva da je relativno lakše zaštititi modele prirodnog jezika. (Ne kažemo da je lako; još uvijek se pokazalo da je vrlo teško.) Međutim, zaštita sustava računalnog vida potpuno je drugačiji scenarij. Teže je, pogotovo zato što postoji toliko varijacija u prirodnom svijetu, a slike sadrže velik broj piksela.

Kako bismo riješili ovaj problem, možda će nam trebati AI program koji ima ljudskiji pogled na svijet koji bi ga mogao učiniti manje sklonim halucinacijama. Iako se istraživanja provode, još smo daleko od umjetne inteligencije koja može pokušati preuzeti savjete iz prirode i izbjeći problem halucinacija. Za sada su surova stvarnost.

Općenito, AI halucinacije složen su fenomen koji može nastati kombinacijom čimbenika. Istraživači aktivno razvijaju metode za otkrivanje i ublažavanje halucinacija umjetne inteligencije kako bi poboljšali točnost i pouzdanost sustava umjetne inteligencije. Ali trebali biste ih biti svjesni kada komunicirate s bilo kojim AI sustavom.

Vezani postovi
Objavite članak na

Dodaj komentar