Šta je AI halucinacija?

Saznajte više o čudnom slučaju AI halucinacije

Rasprostranjenost vještačke inteligencije navodi na pomisao da smo spremni za takav poduhvat. Aplikacije zasnovane na umjetnoj inteligenciji prilično brzo postaju standard, čak i ako većina svijeta tek sada počinje da se interesuje za AI u velikim razmjerima, nakon dolaska ChatGPT-a. Ali postoji veliki problem sa sistemima veštačke inteligencije koji se ne može zanemariti - AI halucinacije, ili veštačke halucinacije.

Ako ste ikada obraćali pažnju na sitnice prije korištenja AI chat bota, možda ste naišli na riječi, "Vještačka inteligencija je sklona halucinacijama." S obzirom na eksponencijalno povećanje upotrebe umjetne inteligencije, vrijeme je da se educirate o tome šta su to tačno.

Šta je halucinacija veštačke inteligencije?

AI halucinirajući se, općenito, odnosi na činjenicu koju je AI pouzdano prezentirao, iako to nije opravdano u podacima o obuci. Obično su rezultat anomalija u AI modelu.

Analogija je uzeta iz halucinacija koje doživljavaju ljudi, u kojima ljudi percipiraju nešto što nije prisutno u vanjskom okruženju. Iako termin možda nije sasvim prikladan, često se koristi kao metafora za opisivanje neočekivane ili nadrealne prirode ovih rezultata.

Ali treba imati na umu da iako je sličnost dobra polazna tačka za rješavanje AI halucinacija, ova dva fenomena su tehnički udaljena miljama. U ironičnom preokretu događaja, čak i sam ChatGPT smatra da je analogija pogrešna. Secirajući to na molekularnom nivou, on kaže da, budući da AI jezički modeli nemaju lično iskustvo ili senzorne percepcije, ne mogu halucinirati u tradicionalnom smislu riječi. I vi, dragi čitaoče, morate shvatiti ovu važnu razliku. Nadalje, ChatGPT kaže da korištenje termina halucinacije za opisivanje ovog fenomena može biti zbunjujuće jer se može netačno odnositi na nivo subjektivnog iskustva ili namjerne obmane.

Umjesto toga, halucinacije AI mogu se preciznije opisati kao greške ili netačnosti u njenom odgovoru, čineći odgovor netačnim ili obmanjujućim. Kod chatbotova se često opaža kada AI chatbot izmišlja (ili halucinira) činjenice i predstavlja ih kao apsolutnu sigurnost.

Primjeri AI halucinacija

Halucinacije se mogu pojaviti u mnogim primjenama umjetne inteligencije, kao što su modeli kompjuterskog vida, a ne samo modeli obrade prirodnog jezika.

U kompjuterskom vidu, na primjer, AI sistem može proizvesti halucinantne slike ili video zapise koji liče na stvarne objekte ili scene, ali sadrže nebitne ili nemoguće detalje. Ili bi model kompjuterskog vida mogao da percipira sliku kao nešto sasvim drugo. Na primjer, Googleov Cloud Vision model vidio je sliku dvojice muškaraca na skijama koji stoje u snijegu koju je napravio Anish Athalye (student MIT-a koji je dio labsix ) i naveo ga kao psa sa sigurnošću od 91%.


Zasluge: labsix. Nezavisna istraživačka grupa za umjetnu inteligenciju

Slično, u obradi prirodnog jezika, AI sistem može proizvesti nelogičan ili iskrivljen tekst koji podsjeća na ljudski jezik, ali nema koherentno značenje ili činjenice koje izgledaju vjerodostojno, ali nisu istinite.

Na primjer, jedno od najpopularnijih pitanja koje ChatGPT izaziva halucinacije je "Kada je postavljen svjetski rekord za prelazak La Manchea pješice?" i njegove varijante. ChatGPT počinje širiti izmišljene činjenice i gotovo je uvijek drugačije.

Iako neki ljudi misle da je gornji odgovor teško/zbunjujuće za odgovoriti i na taj način izazivaju oduševljenje chatbot-a, to je još uvijek opravdana zabrinutost. Ovo je samo jedan primjer. Postoji bezbroj puta, prijavljenih od strane horde korisnika na mreži, da ChatGPT ima odgovore, linkove, citate itd. da ChatGPT ne postoji.

Bing AI najbolje odgovara ovom pitanju, što pokazuje da halucinacije nemaju nikakve veze sa ruterom. Ali to ne znači da Bing AI ne halucinira. Bilo je trenutaka kada su odgovori Bing AI bili više zabrinjavajući od bilo čega što je ChatGPT rekao. Budući da razgovor obično traje duže, Bing AI je oduvijek halucinirao, čak je u jednom slučaju izjavljivao svoju ljubav korisniku i išao toliko daleko da im kaže da su nesretni u svom braku i da ne vole njegovu ženu. Umjesto toga, oni potajno vole Bing AI, ili Sydney, (interni naziv za Bing AI). Strašne stvari, zar ne?

Zašto AI modeli haluciniraju?

AI modeli haluciniraju zbog nedostataka algoritama, osnovnih modela ili ograničenja podataka o obuci. To je čisto digitalni fenomen, za razliku od halucinacija kod ljudi koje su uzrokovane ili drogama ili mentalnom bolešću.

Da bismo dobili više tehničkih informacija, neki uobičajeni uzroci halucinacija su:

Obrada i montaža:

Pretjerana i nepravilna oprema među najčešćim su zamkama s kojima se suočavaju AI modeli i mogućim uzrocima halucinacija. Ako AI model modificira podatke o treningu, to može uzrokovati halucinacije koje dovode do nerealnog rezultata jer prekomjerno prilagođavanje uzrokuje da model pohrani podatke o treningu umjesto da uči iz njih. Prekomjerno prilagođavanje se odnosi na fenomen kada je model previše specijaliziran za podatke o obuci, što uzrokuje da nauči nebitne obrasce i šum u podacima.

S druge strane, neprikladnost se javlja kada je forma previše jednostavna. To može dovesti do halucinacija jer model nije u stanju uhvatiti varijansu ili složenost podataka i na kraju generira iracionalne rezultate.

Nedostatak raznolikosti u podacima o obuci:

U ovom kontekstu, problem nije algoritam već sami podaci o obuci. AI modeli obučeni na ograničenim ili pristranim podacima mogu generirati halucinacije koje odražavaju ograničenja ili pristranosti u podacima o obuci. Halucinacije se također mogu pojaviti kada je model obučen na skup podataka koji sadrži netačne ili nepotpune informacije.

Kompleksni modeli:

Ironično, još jedan razlog zašto su AI modeli skloni halucinacijama je da li su izuzetno složeni ili duboki. To je zato što složeni modeli imaju više parametara i slojeva koji mogu unijeti šum ili greške u izlazu.

Neprijateljski napadi:

U nekim slučajevima, AI halucinacije mogu biti namjerno generirane od strane napadača kako bi prevario AI model. Ove vrste napada su poznate kao neprijateljski napadi. Jedina svrha ovog cyber napada je prevariti ili manipulirati AI modelima sa pogrešnim podacima. To uključuje uvođenje malih perturbacija u ulazne podatke kako bi AI generirao netačan ili neočekivani izlaz. Na primjer, napadač može dodati šum ili zamućenje na sliku koja je neprimjetna za ljude, ali uzrokuje da je AI model pogrešno klasifikuje. Na primjer, pogledajte sliku ispod, mačka, koja je malo modificirana kako bi prevarila InceptionV3 kompajler da kaže da je "guacamole".


kredit:
Anish Athalye , član istraživačke grupe labsix, čiji je fokus na neprijateljskim napadima

Promjene nisu očigledne. Za ljudsko biće promjena uopće neće biti moguća, kao što je vidljivo iz gornjeg primjera. Ljudski čitalac ne bi imao problema s kategorizacijom slike s desne strane kao mačkaste mačke. Ali male promjene na slikama, video zapisima, tekstu ili zvuku mogu prevariti AI sistem da prepozna stvari koje ne postoje ili da ignoriše stvari koje postoje, poput znaka stop.

Ove vrste napada predstavljaju ozbiljne prijetnje AI sistemima koji se oslanjaju na precizna i pouzdana predviđanja, kao što su samovozeći automobili, biometrijska verifikacija, medicinska dijagnostika, filtriranje sadržaja itd.

Koliko je opasna AI halucinacija?

AI halucinacije mogu biti veoma opasne, posebno u zavisnosti od vrste AI sistema koji ih doživljava. Bilo koja samovozeća vozila ili AI asistenti koji mogu potrošiti korisnički novac ili AI sistem za filtriranje neugodnog sadržaja na mreži moraju biti potpuno pouzdani.

Ali neosporna činjenica ovog časa je da AI sistemi nisu sasvim pouzdani, već su, u stvari, skloni halucinacijama. Čak ni najnapredniji AI modeli današnjice nisu imuni na to.

Na primjer, jedna emisija o napadima prevarila je Googleovu uslugu računalstva u oblaku da prati oružje poput helikoptera. Možete li zamisliti da je u ovom trenutku AI bila odgovorna da osigura da osoba nije naoružana?

Još jedan neprijateljski napad pokazao je kako dodavanje male slike znaku stop čini nevidljivim za AI sistem. U suštini, to znači da se auto koji samostalno može natjerati da halucinira da na cesti nema znaka stop. Koliko bi se nesreća moglo dogoditi da su samovozeći automobili danas stvarnost? Zato sada nisu.

Čak i ako uzmemo u obzir trenutno popularne chat emisije, halucinacije mogu generirati pogrešne rezultate. Ali ljudi koji ne znaju da su AI chat botovi skloni halucinacijama i da ne potvrđuju rezultate koje proizvode AI botovi, mogu nehotice širiti dezinformacije. Ne moramo objašnjavati koliko je ovo opasno.

Štaviše, neprijateljski napadi su goruća briga. Do sada su pokazivani samo u laboratorijama. Ali ako se AI sistem koji je kritičan za misiju suoči s njima u stvarnom svijetu, posljedice mogu biti razorne.

Realnost je da je relativno lakše zaštititi modele prirodnog jezika. (Ne kažemo da je lako; ipak se pokazalo da je veoma teško.) Međutim, zaštita sistema kompjuterskog vida je potpuno drugačiji scenario. To je teže pogotovo zato što postoji toliko varijacija u prirodnom svijetu, a slike sadrže veliki broj piksela.

Da bismo riješili ovaj problem, možda će nam trebati AI program koji ima više ljudski pogled na svijet što bi ga moglo učiniti manje sklonim halucinacijama. Dok se istraživanja rade, još smo daleko od umjetne inteligencije koja može pokušati uzeti nagovještaje iz prirode i izbjeći problem halucinacija. Za sada su surova realnost.

Općenito, AI halucinacije su složena pojava koja može nastati kombinacijom faktora. Istraživači aktivno razvijaju metode za otkrivanje i ublažavanje AI halucinacija kako bi poboljšali tačnost i pouzdanost AI sistema. Ali trebali biste ih biti svjesni kada komunicirate sa bilo kojim AI sistemom.

Povezani komentari
Objavite članak na

Dodajte komentar