Mis on AI hallutsinatsioon?

Lugege kummalise AI hallutsinatsiooni juhtumi kohta

Tehisintellekti levik paneb arvama, et oleme selliseks ettevõtmiseks valmis. AI-toega rakendused muutuvad üsna kiiresti standardiks, isegi kui enamik maailmast hakkab AI vastu ulatuslikku huvi tundma alles nüüd, pärast ChatGPT saabumist. Kuid tehisintellektisüsteemidega on suur probleem, mida ei saa ignoreerida – tehisintellekti hallutsinatsioonid ehk kunstlikud hallutsinatsioonid.

Kui olete enne tehisintellekti vestlusroti kasutamist pööranud tähelepanu nitty grittyle, olete võib-olla kohanud sõnu: "Tehisintellekt on altid hallutsinatsioonidele." Arvestades tehisintellekti kasutamise hüppelist kasvu, on aeg end harida, mis need asjad täpselt on.

Mis on tehisintellekti hallutsinatsioon?

AI hallutsineeriv AI viitab üldiselt tõsiasjale, mida tehisintellekt on enesekindlalt esitanud, kuigi see ei ole koolitusandmetes õigustatud. Need on tavaliselt AI-mudeli kõrvalekallete tagajärg.

Analoogia on võetud inimeste kogetud hallutsinatsioonidest, mille puhul inimesed tajuvad midagi, mida väliskeskkonnas ei esine. Kuigi see termin ei pruugi olla täiesti sobiv, kasutatakse seda sageli metafoorina, et kirjeldada nende väljundite ootamatut või sürreaalset olemust.

Kuid peaksite meeles pidama, et kuigi sarnasus on hea lähtepunkt tehisintellekti hallutsinatsioonidega tegelemiseks, on need kaks nähtust tehniliselt teineteisest miili kaugusel. Asjade iroonilises pöördes leiab isegi ChatGPT ise, et analoogia on vale. Seda molekulaarsel tasandil lahkades ütleb ta, et kuna tehisintellekti keelemudelitel pole isiklikku kogemust ega sensoorseid tajusid, ei saa nad hallutsineerida selle sõna traditsioonilises tähenduses. Ja sina, hea lugeja, pead mõistma seda olulist erinevust. Lisaks ütleb ChatGPT, et termini hallutsinatsioonid kasutamine selle nähtuse kirjeldamiseks võib olla segadusttekitav, kuna see võib viidata ebatäpselt subjektiivse kogemuse või tahtliku pettuse tasemele.

Selle asemel saab tehisintellekti hallutsinatsioone täpsemalt kirjeldada kui selle vastuse vigu või ebatäpsusi, mis muudab vastuse valeks või eksitavaks. Vestlusrobotite puhul täheldatakse seda sageli, kui AI-vestlusbot mõtleb välja (või hallutsineerib) fakte ja esitab need absoluutse kindlusena.

Näited AI hallutsinatsioonidest

Hallutsinatsioonid võivad tekkida paljudes tehisintellekti rakendustes, näiteks arvutinägemismudelites, mitte ainult loomuliku keele töötlemise mudelites.

Näiteks arvutinägemise puhul võib AI-süsteem toota hallutsinatoorseid pilte või videoid, mis meenutavad reaalseid objekte või stseene, kuid sisaldavad ebaolulisi või võimatuid detaile. Või võib arvutinägemise mudel tajuda pilti millegi muuna. Näiteks Google'i Cloud Visioni mudel nägi pilti kahest suuskadel lumes seisvast mehest, mille tegi Anish Athalye (MIT magistrant, kes on osa labsix ) ja mainis seda 91% kindlusega kui koera.


Autorid: labsix. Sõltumatu tehisintellekti uurimisrühm

Sarnaselt võib AI-süsteem loomuliku keele töötlemisel toota ebaloogilist või moonutatud teksti, mis sarnaneb inimkeelega, kuid millel ei ole ühtset tähendust või fakte, mis tunduvad usutavad, kuid ei vasta tõele.

Näiteks üks populaarsemaid küsimusi, mida ChatGPT põhjustab hallutsinatsioone, on "Millal püstitati jalgsi Inglise väina ületamise maailmarekord?" ja selle variandid. ChatGPT hakkab levitama väljamõeldud fakte ja see on peaaegu alati erinev.

Kuigi mõned inimesed arvavad, et ülaltoodud vastusele on raske/segadust tekitav vastata ja see paneb vestlusrobot raevutsema, on see siiski tõsine probleem. See on vaid üks näide. Internetis olevate kasutajate hordide poolt on lugematu arv kordi juhtunud, et ChatGPT-l on vastuseid, linke, tsitaate jne, et ChatGPT-d pole olemas.

Selle küsimusega sobib kõige paremini Bing AI, mis näitab, et hallutsinatsioonidel pole ruuteriga mingit pistmist. Kuid see ei tähenda, et Bing AI ei tekitaks hallutsinatsioone. Oli aegu, mil Bing AI vastused olid murettekitavamad kui miski, mida ChatGPT ütles. Kuna vestlus kipub kauem aega võtma, on Bing AI alati olnud hallutsinatsioonid, isegi ühel juhul kuulutanud kasutajale oma armastust ja jõudnud nii kaugele, et öelda neile, et nad on oma abielus õnnetud ja et nad ei armasta tema naist. Selle asemel meeldib neile salaja ka Bing AI ehk Sydney (Bing AI sisemine nimi). Õudne värk, eks?

Miks AI-mudelid hallutsineerivad?

AI mudelid tekitavad hallutsinatsiooni algoritmide, aluseks olevate mudelite või koolitusandmete piirangute tõttu. See on puhtalt digitaalne nähtus, erinevalt inimeste hallutsinatsioonidest, mida põhjustavad kas ravimid või vaimuhaigused.

Tehnilisemaks saamiseks on mõned hallutsinatsioonide levinumad põhjused:

Töötlemine ja paigaldamine:

Ülesobitamine ja sobimatu paigaldamine on AI mudelite kõige levinumad lõkse ja hallutsinatsioonide võimalikud põhjused. Kui AI-mudel muudab treeninguandmeid, võib see põhjustada hallutsinatsioone, mis põhjustavad ebareaalset väljundit, sest ülepaigutamise tõttu salvestab mudel treeningandmed, mitte ei õpi neist. Ülesobitamine viitab nähtusele, kui mudel on treeningandmetele liiga spetsialiseerunud, mistõttu ta õpib andmetes ebaolulisi mustreid ja müra.

Teisest küljest ilmneb sobimatus, kui vorm on liiga lihtne. See võib põhjustada hallutsinatsioone, kuna mudel ei suuda tabada andmete dispersiooni ega keerukust ning tekitab irratsionaalse väljundi.

Treeninguandmete mitmekesisuse puudumine:

Selles kontekstis pole probleem mitte algoritmis, vaid treeningandmetes endas. Piiratud või kallutatud andmete põhjal treenitud tehisintellekti mudelid võivad tekitada hallutsinatsioone, mis peegeldavad treeningandmete piiranguid või eelarvamusi. Hallutsinatsioonid võivad tekkida ka siis, kui mudelit õpetatakse andmekogumi põhjal, mis sisaldab ebatäpset või mittetäielikku teavet.

Komplekssed mudelid:

Irooniline on see, et teine ​​põhjus, miks AI mudelid on altid hallutsinatsioonidele, on see, kas need on äärmiselt keerulised või sügavad. Selle põhjuseks on asjaolu, et keerukatel mudelitel on rohkem parameetreid ja kihte, mis võivad väljundisse tekitada müra või vigu.

Vaenulikud rünnakud:

Mõnel juhul võib ründaja AI-mudeli petmiseks tahtlikult tekitada AI hallutsinatsioone. Seda tüüpi rünnakuid nimetatakse vaenulikeks rünnakuteks. Selle küberrünnaku ainus eesmärk on petta või manipuleerida tehisintellekti mudeleid eksitavate andmetega. See hõlmab väikeste häirete sisestamist sisendandmetesse, et AI genereeriks vale või ootamatu väljundi. Näiteks võib ründaja lisada pildile müra või hägusust, mis on inimestele märkamatu, kuid põhjustab selle valesti klassifitseerimise AI mudeli järgi. Näiteks vaadake allolevat kassi pilti, mida on veidi muudetud, et meelitada InceptionV3 kompilaatorit ütlema, et see on "guacamole".


krediit:
Anish Athalye , Labsix uurimisrühma liige, kelle fookuses on vastandlikud rünnakud

Muutused ei ole silmatorkavad. Inimese jaoks ei ole muutused üldse võimalikud, nagu ülaltoodud näitest nähtub. Inimlugejal poleks probleeme kategoriseerida parempoolne pilt tabby kassiks. Kuid piltides, videotes, tekstis või helis väikeste muudatuste tegemine võib AI-süsteemi meelitada ära tundma asju, mida seal pole, või ignoreerima asju, mis on olemas, näiteks stoppmärki.

Seda tüüpi rünnakud kujutavad endast tõsist ohtu AI-süsteemidele, mis põhinevad täpsetel ja usaldusväärsetel ennustustel, nagu isejuhtivad autod, biomeetriline kontroll, meditsiiniline diagnostika, sisu filtreerimine jne.

Kui ohtlik on AI hallutsinatsioon?

AI hallutsinatsioonid võivad olla väga ohtlikud, eriti sõltuvalt sellest, millist tüüpi tehisintellekti süsteem neid kogeb. Kõik isejuhtivad sõidukid või tehisintellekti abilised, mis suudavad kasutaja raha kulutada, või AI-süsteem veebis ebameeldiva sisu välja filtreerimiseks peavad olema täiesti usaldusväärsed.

Kuid selle tunni vaieldamatu tõsiasi on see, et tehisintellektisüsteemid ei ole täiesti usaldusväärsed, kuid on tegelikult altid hallutsinatsioonidele. Isegi tänapäeva kõige arenenumad AI mudelid pole selle vastu immuunsed.

Näiteks pettis üks ründesaade Google'i pilvandmetöötlusteenust nii, et ta tõmbas relva nagu helikopter. Kas kujutate ette, kui praegu vastutaks tehisintellekti selle eest, et isik ei oleks relvastatud?

Veel üks vaenulik rünnak näitas, kuidas stoppmärgile väikese pildi lisamine muudab selle AI-süsteemile nähtamatuks. Sisuliselt tähendab see seda, et isejuhtiv auto saab panna hallutsineerima, et teel pole stoppmärki. Kui palju õnnetusi võiks juhtuda, kui isejuhtivad autod oleksid tänapäeval reaalsus? Sellepärast neid praegu ei ole.

Isegi kui võtame arvesse praegu populaarseid vestlussaateid, võivad hallutsinatsioonid tekitada vale väljundi. Kuid inimesed, kes ei tea, et AI-vestlusbotid on altid hallutsinatsioonidele ja ei kinnita tehisintellektirobotite toodetud väljundit, võivad tahtmatult levitada valeinformatsiooni. Me ei pea selgitama, kui ohtlik see on.

Lisaks on vaenulikud rünnakud pakiline probleem. Seni on neid näidatud vaid laborites. Kui aga missioonikriitiline tehisintellektisüsteem neile pärismaailmas vastu astub, võivad tagajärjed olla laastavad.

Reaalsus on see, et loomulikke keelemudeleid on suhteliselt lihtsam kaitsta. (Me ei ütle, et see on lihtne; see osutub siiski väga keeruliseks.) Arvutinägemissüsteemide kaitsmine on aga täiesti erinev stsenaarium. See on keerulisem eelkõige seetõttu, et loodusmaailmas on nii palju varieeruvust ja pildid sisaldavad palju piksleid.

Selle probleemi lahendamiseks vajame AI-programmi, millel on inimlikum maailmavaade, mis võib muuta selle hallutsinatsioonidele vähem vastuvõtlikuks. Kuni uuringuid tehakse, oleme veel kaugel tehisintellektist, mis võib püüda võtta loodusest vihjeid ja vältida hallutsinatsioonide probleemi. Praegu on need karm reaalsus.

Üldiselt on AI hallutsinatsioonid keeruline nähtus, mis võib tuleneda mitmest tegurist. Teadlased töötavad aktiivselt välja meetodeid tehisintellekti hallutsinatsioonide tuvastamiseks ja leevendamiseks, et parandada tehisintellektisüsteemide täpsust ja töökindlust. Kuid mis tahes tehisintellektisüsteemiga suhtlemisel peaksite neist teadlik olema.

Seotud ametikohta
Avalda artikkel aadressil

Lisa kommentaar