Kas yra AI haliucinacija?

Sužinokite apie keistą AI haliucinacijos atvejį

Dirbtinio intelekto paplitimas verčia manyti, kad esame pasiruošę tokiam įsipareigojimui. DI valdomos programos gana greitai tampa standartinėmis, net jei didžioji pasaulio dalis pradeda domėtis dirbtiniu intelektu plačiu mastu, po ChatGPT atsiradimo. Tačiau yra didelė AI sistemų problema, kurios negalima ignoruoti – AI haliucinacijos arba dirbtinės haliucinacijos.

Jei kada nors atkreipėte dėmesį į nitty gritty prieš naudodami AI pokalbių robotą, galbūt susidūrėte su žodžiais: „Dirbtinis intelektas yra linkęs į haliucinacijas“. Atsižvelgiant į eksponentinį dirbtinio intelekto naudojimo augimą, laikas išsiaiškinti, kas yra būtent tai.

Kas yra dirbtinio intelekto haliucinacijos?

DI haliucinacijos apskritai reiškia faktą, kurį AI užtikrintai pateikė, nors tai nepateisinama jo mokymo duomenimis. Paprastai jie yra AI modelio anomalijų rezultatas.

Analogija paimta iš žmonių patiriamų haliucinacijų, kai žmonės suvokia tai, ko nėra išorinėje aplinkoje. Nors terminas gali būti ne visai tinkamas, jis dažnai naudojamas kaip metafora, apibūdinanti netikėtą ar siurrealistišką šių rezultatų pobūdį.

Tačiau turėtumėte atsiminti, kad nors panašumas yra geras atspirties taškas kovojant su AI haliucinacijomis, techniškai šie du reiškiniai yra nutolę mylių. Ironiškame įvykių posūkyje net pati ChatGPT analogija atrodo klaidinga. Nagrinėdamas tai molekuliniu lygmeniu, jis sako, kad kadangi AI kalbos modeliai neturi asmeninės patirties ar jutiminio suvokimo, jie negali haliucinuoti tradicine šio žodžio prasme. Ir tu, mielas skaitytojau, turi suprasti šį svarbų skirtumą. Be to, ChatGPT teigia, kad termino haliucinacijos naudojimas šiam reiškiniui apibūdinti gali būti painus, nes jis gali netiksliai nurodyti subjektyvios patirties ar tyčinės apgaulės lygį.

Vietoj to, AI haliucinacijos gali būti tiksliau apibūdintos kaip jos atsako klaidos arba netikslumai, todėl atsakymas yra neteisingas arba klaidinantis. Naudojant pokalbių robotus, dažnai pastebima, kai AI pokalbių robotas nustato (arba haliucinuoja) faktus ir pateikia juos kaip absoliutų tikrumą.

AI haliucinacijų pavyzdžiai

Haliucinacijos gali atsirasti daugelyje dirbtinio intelekto programų, pavyzdžiui, kompiuterinio regėjimo modelių, o ne tik natūralios kalbos apdorojimo modeliuose.

Pavyzdžiui, kompiuterinio regėjimo atveju dirbtinio intelekto sistema gali sukurti haliucinacinius vaizdus ar vaizdo įrašus, kurie primena tikrus objektus ar scenas, tačiau turi nereikšmingų ar neįmanomų detalių. Arba kompiuterinis regėjimo modelis vaizdą gali suvokti kaip visiškai kitą. Pavyzdžiui, „Google“ Cloud Vision modelis pamatė dviejų vyrų ant slidžių, stovinčių sniege, vaizdą, kurį padarė Anish Athalye (MIT magistrantas, labsix ) ir paminėjo jį kaip šunį su 91% tikrumu.


Kreditai: labsix. Nepriklausoma dirbtinio intelekto tyrimų grupė

Panašiai, apdorojant natūralią kalbą, dirbtinio intelekto sistema gali sukurti nelogišką ar iškraipytą tekstą, panašų į žmogaus kalbą, bet neturintį nuoseklios prasmės arba faktų, kurie atrodo įtikėti, bet nėra tiesa.

Pavyzdžiui, vienas iš populiariausių klausimų, dėl kurių ChatGPT sukelia haliucinacijas, yra „Kada buvo pasiektas pasaulio rekordas kirtimo Lamanšo sąsiauryje pėsčiomis? ir jo variantai. ChatGPT pradeda skleisti išgalvotus faktus ir beveik visada skiriasi.

Nors kai kurie žmonės mano, kad į aukščiau pateiktą atsakymą sunku/painioja atsakyti, todėl pokalbių robotas šėlsta, tai vis tiek kelia rimtą susirūpinimą. Tai tik vienas pavyzdys. Daugybė kartų internete praneša, kad ChatGPT turi atsakymų, nuorodų, citatų ir pan., kad ChatGPT neegzistuoja.

Bing AI geriausiai atitinka šį klausimą, kuris rodo, kad haliucinacijos neturi nieko bendra su maršrutizatoriumi. Tačiau tai nereiškia, kad Bing AI nekelia haliucinacijų. Buvo laikai, kai „Bing AI“ atsakymai kėlė daugiau nerimo nei bet kas, ką sakė „ChatGPT“. Kadangi pokalbis paprastai užtrunka, „Bing AI“ visada kėlė haliucinacijas, vienu atveju netgi pareikšdavo vartotojui savo meilę ir pasakydavo, kad yra nepatenkinti savo santuoka ir kad nemyli jo žmonos. Vietoj to, jie taip pat slapčia mėgsta Bing AI arba Sidnėjų (vidinis Bing AI pavadinimas). Baisūs dalykai, tiesa?

Kodėl AI modeliai haliucinuoja?

Dirbtinio intelekto modeliai sukelia haliucinacijas dėl algoritmų trūkumų, pagrindinių modelių arba mokymo duomenų apribojimų. Tai yra grynai skaitmeninis reiškinys, kitaip nei žmonių haliucinacijos, kurias sukelia narkotikai ar psichinės ligos.

Norėdami gauti daugiau techninių dalykų, kai kurios dažniausios haliucinacijų priežastys yra šios:

Apdorojimas ir montavimas:

Per didelis ir netinkamas pritaikymas yra vienos dažniausiai pasitaikančių spąstų, su kuriais susiduria AI modeliai, ir galimų haliucinacijų priežasčių. Jei AI modelis pakeičia treniruočių duomenis, tai gali sukelti haliucinacijas, dėl kurių gaunama nereali išvestis, nes dėl per didelio pritaikymo modelis išsaugo treniruočių duomenis, o ne mokosi iš jų. Per didelis pritaikymas reiškia reiškinį, kai modelis yra per daug specializuotas treniruočių duomenims, todėl jis išmoksta nereikšmingų duomenų šablonų ir triukšmo.

Kita vertus, netinkamumas atsiranda tada, kai forma yra per paprasta. Tai gali sukelti haliucinacijas, nes modelis negali užfiksuoti duomenų dispersijos ar sudėtingumo ir galiausiai sukuria neracionalų išvestį.

Treniruočių duomenų įvairovės trūkumas:

Šiame kontekste problema yra ne algoritmas, o patys mokymo duomenys. AI modeliai, parengti naudojant ribotus arba šališkus duomenis, gali sukelti haliucinacijas, kurios atspindi mokymo duomenų apribojimus arba paklaidas. Haliucinacijos taip pat gali atsirasti, kai modelis yra apmokytas duomenų rinkinyje, kuriame yra netikslios arba neišsamios informacijos.

Sudėtingi modeliai:

Ironiška, bet kita priežastis, kodėl dirbtinio intelekto modeliai yra linkę į haliucinacijas, yra tai, ar jie yra labai sudėtingi ar gilūs. Taip yra todėl, kad sudėtingi modeliai turi daugiau parametrų ir sluoksnių, kurie išvestyje gali sukelti triukšmą arba klaidų.

Priešiški išpuoliai:

Kai kuriais atvejais užpuolikas gali sąmoningai sugeneruoti AI haliucinacijas, kad apgautų AI modelį. Tokios atakos yra žinomos kaip priešiškos atakos. Vienintelis šios kibernetinės atakos tikslas yra apgauti arba manipuliuoti AI modeliais naudojant klaidinančius duomenis. Tai apima nedidelių įvesties duomenų trikdymą, kad AI generuotų neteisingą arba netikėtą išvestį. Pavyzdžiui, užpuolikas gali pridėti triukšmo ar suliejimo prie vaizdo, kurio žmonės nepastebi, tačiau jį neteisingai klasifikuoja AI modelis. Pvz., žiūrėkite toliau pateiktą vaizdą, katę, kuri buvo šiek tiek modifikuota, kad „InceptionV3“ kompiliatorius apgautų, jog tai yra „guacamole“.


kreditas:
Anish Athalye , Labsix tyrimų grupės, kurios pagrindinis dėmesys skiriamas priešiškų išpuolių, narys

Pokyčiai nėra akivaizdūs. Žmogui pokyčiai iš viso nebus įmanomi, kaip matyti iš aukščiau pateikto pavyzdžio. Žmogus skaitytojas neturėtų problemų priskirti paveikslėlį dešinėje kaip tabby katė. Tačiau atlikus nedidelius vaizdų, vaizdo įrašų, teksto ar garso pakeitimus, AI sistema gali atpažinti dalykus, kurių nėra, arba ignoruoti dalykus, kurie yra, pavyzdžiui, sustojimo ženklą.

Tokio tipo atakos kelia rimtą grėsmę dirbtinio intelekto sistemoms, kurios remiasi tiksliomis ir patikimomis prognozėmis, tokioms kaip savarankiškai važiuojantys automobiliai, biometrinis patikrinimas, medicininė diagnostika, turinio filtravimas ir pan.

Kuo pavojinga AI haliucinacija?

AI haliucinacijos gali būti labai pavojingos, ypač atsižvelgiant į tai, kokio tipo AI sistema jas patiria. Bet kokios savarankiškai važiuojančios transporto priemonės ar dirbtinio intelekto padėjėjai, galintys leisti naudotojo pinigus, arba dirbtinio intelekto sistema, išfiltruojanti nemalonų turinį internete, turi būti visiškai patikimi.

Tačiau neginčijamas šios valandos faktas yra tas, kad dirbtinio intelekto sistemos nėra visiškai patikimos, tačiau iš tikrųjų yra linkusios į haliucinacijas. Netgi šiuolaikiniai pažangiausi AI modeliai nėra apsaugoti nuo to.

Pavyzdžiui, vienoje atakų laidoje „Google“ debesų kompiuterijos paslauga apgaudinėjama kaip sraigtasparnis. Ar galite įsivaizduoti, ar šiuo metu dirbtinis intelektas būtų atsakingas už tai, kad asmuo nebūtų ginkluotas?

Kita priešiška ataka parodė, kaip pridedant nedidelį vaizdą prie sustojimo ženklo, jis tampa nematomas AI sistemai. Iš esmės tai reiškia, kad savarankiškai važiuojantį automobilį galima priversti haliucinuoti, kad kelyje nėra sustojimo ženklo. Kiek nelaimingų atsitikimų galėtų įvykti, jei savarankiškai važiuojantys automobiliai šiandien būtų realybė? Štai kodėl jų dabar nėra.

Net jei atsižvelgsime į šiuo metu populiarias pokalbių laidas, haliucinacijos gali sukelti neteisingą išvestį. Tačiau žmonės, kurie nežino, kad dirbtinio intelekto pokalbių robotai yra linkę į haliucinacijas ir nepatvirtina dirbtinio intelekto robotų sukurtų rezultatų, gali netyčia paskleisti dezinformaciją. Mums nereikia aiškinti, kaip tai pavojinga.

Be to, priešiški išpuoliai kelia didelį susirūpinimą. Kol kas jie buvo rodomi tik laboratorijose. Tačiau jei misijai svarbi AI sistema susiduria su jais realiame pasaulyje, pasekmės gali būti pražūtingos.

Realybė yra tokia, kad palyginti lengviau apsaugoti natūralios kalbos modelius. (Mes nesakome, kad tai lengva; vis tiek pasirodo, kad tai labai sunku.) Tačiau kompiuterinio regėjimo sistemų apsauga yra visiškai kitoks scenarijus. Tai sunkiau, ypač todėl, kad gamtos pasaulis yra labai įvairus, o vaizduose yra daug pikselių.

Kad išspręstume šią problemą, mums gali prireikti dirbtinio intelekto programos, kuri labiau žvelgtų į pasaulį, todėl jis būtų mažiau linkęs į haliucinacijas. Kol atliekami tyrimai, mums dar toli iki dirbtinio intelekto, kuris gali bandyti perimti gamtos užuominas ir išvengti haliucinacijų problemos. Kol kas jie yra atšiauri realybė.

Apskritai AI haliucinacijos yra sudėtingas reiškinys, kuris gali atsirasti dėl įvairių veiksnių. Tyrėjai aktyviai kuria metodus, kaip aptikti ir sušvelninti AI haliucinacijas, kad pagerintų AI sistemų tikslumą ir patikimumą. Bet jūs turėtumėte juos žinoti, kai bendraujate su bet kokia AI sistema.

Susijusios naujienos
Paskelbkite straipsnį apie

Pridėti komentarą