Kaj je halucinacija AI?

Spoznajte nenavaden primer halucinacije AI

Razširjenost umetne inteligence daje misliti, da smo pripravljeni na takšen podvig. Aplikacije, ki jih poganja umetna inteligenca, dokaj hitro postajajo standardne, čeprav se večina sveta šele zdaj, po prihodu ChatGPT, začenja zanimati za umetno inteligenco v velikem obsegu. Toda s sistemi umetne inteligence obstaja velik problem, ki ga ni mogoče prezreti – halucinacije umetne inteligence ali umetne halucinacije.

Če ste že kdaj bili pozorni na malenkosti, preden ste uporabili klepetalnega robota z umetno inteligenco, ste morda naleteli na besede, "Umetna inteligenca je nagnjena k halucinacijam." Glede na eksponentno naraščanje uporabe umetne inteligence je čas, da se izobrazite, kaj točno so te stvari.

Kaj je halucinacija umetne inteligence?

Umetna inteligenca, ki halucinira, se na splošno nanaša na dejstvo, ki ga je umetna inteligenca samozavestno predstavila, čeprav ni utemeljena v njegovih podatkih o usposabljanju. Običajno so posledica anomalij v modelu AI.

Analogija je vzeta iz halucinacij, ki jih doživljajo ljudje, v katerih ljudje zaznavajo nekaj, česar v zunanjem okolju ni. Čeprav izraz morda ni povsem primeren, se pogosto uporablja kot metafora za opis nepričakovane ali nadrealistične narave teh rezultatov.

Toda zapomniti si morate, da čeprav je podobnost dobro izhodišče za obravnavo halucinacij umetne inteligence, sta dva pojava tehnično daleč narazen. V ironičnem obratu dogodkov se celo sam ChatGPT zdi analogija napačna. Če ga secira na molekularni ravni, pravi, da ker jezikovni modeli AI nimajo osebnih izkušenj ali čutnih zaznav, ne morejo halucinirati v tradicionalnem pomenu besede. In ti, dragi bralec, moraš razumeti to pomembno razliko. Poleg tega ChatGPT pravi, da je uporaba izraza halucinacije za opis tega pojava lahko zmedena, ker se lahko netočno nanaša na raven subjektivne izkušnje ali namerno prevaro.

Namesto tega lahko halucinacije umetne inteligence natančneje opišemo kot napake ali netočnosti v njegovem odzivu, zaradi česar je odziv nepravilen ali zavajajoč. Pri klepetalnih robotih je pogosto opaziti, da si klepetalni AI izmišlja (ali halucinira) dejstva in jih predstavlja kot absolutno gotovost.

Primeri halucinacij AI

Halucinacije se lahko pojavijo v številnih aplikacijah umetne inteligence, kot so modeli računalniškega vida, ne le modeli obdelave naravnega jezika.

V računalniškem vidu lahko na primer sistem umetne inteligence ustvari halucinacijske slike ali videoposnetke, ki so podobni resničnim predmetom ali prizorom, vendar vsebujejo nepomembne ali nemogoče podrobnosti. Ali pa bi lahko model računalniškega vida sliko zaznal kot nekaj povsem drugega. Googlov model Cloud Vision je na primer videl sliko dveh moških na smučeh, ki stojita v snegu, ki jo je posnel Anish Athalye (podiplomski študent MIT, ki je del labsix ) in ga z 91% gotovostjo omenil kot psa.


Zasluge: labsix. Neodvisna raziskovalna skupina za umetno inteligenco

Podobno lahko sistem umetne inteligence pri obdelavi naravnega jezika ustvari nelogično ali popačeno besedilo, ki spominja na človeški jezik, vendar nima skladnega pomena, ali dejstva, ki se zdijo verjetna, vendar niso resnična.

Na primer, eno najbolj priljubljenih vprašanj, ki ChatGPT povzroča halucinacije, je "Kdaj je bil postavljen svetovni rekord v prečkanju Rokavskega preliva peš?" in njegove različice. ChatGPT začne širiti izmišljena dejstva in skoraj vedno je drugače.

Medtem ko nekateri ljudje mislijo, da je na zgornji odgovor težko/zmeden odgovor in zato povzroča navdušenje klepetalnega robota, je to še vedno utemeljena skrb. To je samo en primer. Neštetokrat so množice spletnih uporabnikov poročale, da ima ChatGPT odgovore, povezave, citate itd., da ChatGPT ne obstaja.

Bing AI se najbolje ujema s tem vprašanjem, kar kaže, da halucinacije nimajo nobene zveze z usmerjevalnikom. Toda to ne pomeni, da Bing AI ne halucinira. Bili so časi, ko so bili odgovori Bing AI bolj zaskrbljujoči kot karkoli, kar je rekel ChatGPT. Ker pogovor običajno traja dlje, Bing AI vedno halucinira, v enem primeru je uporabniku celo izjavil svojo ljubezen in šel tako daleč, da mu je povedal, da sta nesrečna v zakonu in da ne ljubita njegove žene. Namesto tega jim je na skrivaj všeč tudi Bing AI ali Sydney (interno ime za Bing AI). Strašljive stvari, kajne?

Zakaj modeli AI halucinirajo?

Modeli AI halucinirajo zaradi pomanjkljivosti algoritmov, osnovnih modelov ali omejitev podatkov o usposabljanju. Gre za popolnoma digitalni pojav, za razliko od halucinacij pri ljudeh, ki jih povzročijo bodisi droge bodisi duševna bolezen.

Če želite biti bolj tehnični, nekateri pogosti vzroki za halucinacije so:

Obdelava in namestitev:

Prekomerno in nepravilno prileganje sta med najpogostejšimi pastmi, s katerimi se srečujejo modeli AI, in možnimi vzroki za halucinacije. Če model umetne inteligence spremeni podatke o vadbi, lahko povzroči halucinacije, ki vodijo do nerealnih rezultatov, ker prekomerno opremljanje povzroči, da model shrani podatke o vadbi, namesto da bi se iz njih učil. Prekomerno opremljanje se nanaša na pojav, ko je model preveč specializiran za podatke o usposabljanju, zaradi česar se nauči nepomembnih vzorcev in šuma v podatkih.

Po drugi strani pa pride do neprimernosti, ko je forma preenostavna. Lahko povzroči halucinacije, ker model ne more zajeti variance ali kompleksnosti podatkov in na koncu ustvari iracionalne rezultate.

Pomanjkanje raznolikosti podatkov o usposabljanju:

V tem kontekstu težava ni algoritem, temveč podatki o usposabljanju sami. Modeli umetne inteligence, usposobljeni na omejenih ali pristranskih podatkih, lahko ustvarijo halucinacije, ki odražajo omejitve ali pristranskosti podatkov o usposabljanju. Halucinacije se lahko pojavijo tudi, ko se model uri na naboru podatkov, ki vsebuje netočne ali nepopolne informacije.

Kompleksni modeli:

Ironično je, da je še en razlog, zakaj so modeli umetne inteligence nagnjeni k halucinacijam, ali so izjemno zapleteni ali globoki. To je zato, ker imajo kompleksni modeli več parametrov in plasti, ki lahko povzročijo šum ali napake v izhodu.

Sovražni napadi:

V nekaterih primerih lahko napadalec namerno ustvari halucinacije AI, da bi zavedel model AI. Te vrste napadov so znane kot sovražni napadi. Edini namen tega kibernetskega napada je pretentati ali manipulirati z modeli AI z zavajajočimi podatki. Vključuje uvajanje majhnih motenj v vhodne podatke, ki povzročijo, da umetna inteligenca ustvari napačen ali nepričakovan rezultat. Napadalec lahko na primer sliki doda šum ali zamegljenost, ki je za ljudi neopazna, vendar povzroči, da jo model AI napačno razvrsti. Na primer, glejte spodnjo sliko, mačka, ki je bila nekoliko spremenjena, da bi prevajalnik InceptionV3 pretentala, da bi rekel, da je "guacamole".


kredit:
Anish Athalye , član raziskovalne skupine labsix, ki se osredotoča na kontradiktorne napade

Spremembe niso tako očitne. Za človeka sprememba sploh ne bo mogoča, kot je razvidno iz zgornjega primera. Človeški bralec ne bi imel težav kategorizirati sliko na desni kot mačkasto mačko. Toda majhne spremembe slik, videoposnetkov, besedila ali zvoka lahko zavedejo sistem umetne inteligence, da prepozna stvari, ki jih ni, ali ignorira stvari, ki so, na primer znak stop.

Te vrste napadov resno ogrožajo sisteme AI, ki se zanašajo na natančne in zanesljive napovedi, kot so samovozeči avtomobili, biometrično preverjanje, medicinska diagnostika, filtriranje vsebine itd.

Kako nevarna je halucinacija AI?

Halucinacije umetne inteligence so lahko zelo nevarne, zlasti glede na vrsto sistema umetne inteligence, ki jih doživlja. Vsa samovozeča vozila ali pomočniki z umetno inteligenco, ki lahko porabijo uporabniški denar, ali sistem z umetno inteligenco za filtriranje neprijetne vsebine na spletu morajo biti popolnoma zaupanja vredni.

Toda neizpodbitno dejstvo te ure je, da sistemi umetne inteligence niso povsem vredni zaupanja, ampak so v resnici nagnjeni k halucinacijam. Tudi današnji najnaprednejši modeli AI niso imuni nanj.

Na primer, ena napadna oddaja je Googlovo storitev računalništva v oblaku preslepila, da je sledila pištoli kot helikopterju. Si lahko predstavljate, da bi bila trenutno umetna inteligenca odgovorna za to, da oseba ni bila oborožena?

Drug sovražni napad je pokazal, kako je znaku stop dodajanje majhne slike neviden za sistem AI. V bistvu to pomeni, da lahko samovozeči avto halucinira, da na cesti ni znaka stop. Koliko nesreč bi se lahko zgodilo, če bi bili samovozeči avtomobili danes realnost? Zato jih zdaj ni.

Tudi če upoštevamo trenutno priljubljene klepetalnice, lahko halucinacije povzročijo napačne rezultate. Toda ljudje, ki ne vedo, da so klepetalni roboti z umetno inteligenco nagnjeni k halucinacijam, in ne potrdijo rezultatov, ki jih ustvarijo boti z umetno inteligenco, lahko nehote širijo napačne informacije. Ni nam treba razlagati, kako nevarno je to.

Poleg tega so sovražni napadi pereča skrb. Doslej so jih pokazali le v laboratorijih. Če pa se z njimi v resničnem svetu sooči kritičen sistem umetne inteligence, so lahko posledice uničujoče.

Dejstvo je, da je razmeroma lažje zaščititi naravne jezikovne modele. (Ne rečemo, da je enostavno; še vedno se izkaže za zelo težko.) Vendar pa je zaščita sistemov računalniškega vida povsem drugačen scenarij. Težje je predvsem zato, ker je v naravnem svetu toliko variacij in slike vsebujejo veliko število slikovnih pik.

Da bi rešili to težavo, bomo morda potrebovali program umetne inteligence, ki ima bolj človeški pogled na svet, zaradi česar bi bil manj nagnjen k halucinacijam. Medtem ko raziskave potekajo, smo še vedno daleč od umetne inteligence, ki bi lahko poskušala sprejeti namige iz narave in se izogniti problemu halucinacij. Za zdaj so kruta realnost.

Na splošno so halucinacije AI kompleksen pojav, ki lahko nastane zaradi kombinacije dejavnikov. Raziskovalci aktivno razvijajo metode za odkrivanje in ublažitev halucinacij AI, da bi izboljšali natančnost in zanesljivost sistemov AI. Vendar se jih morate zavedati pri interakciji s katerim koli sistemom AI.

Podobni objav
Objavite članek na

Dodaj komentar