Kas ir AI halucinācijas?

Uzziniet par dīvainu AI halucinācijas gadījumu

Mākslīgā intelekta izplatība liek domāt, ka esam gatavi šādam pasākumam. Ar AI darbināmas lietojumprogrammas diezgan ātri kļūst par standartiem, pat ja lielākā daļa pasaules tikai tagad sāk plašā mērogā interesēties par AI pēc ChatGPT ienākšanas. Taču ar AI sistēmām ir liela problēma, kuru nevar ignorēt – AI halucinācijas jeb mākslīgās halucinācijas.

Ja kādreiz pirms AI tērzēšanas robota izmantošanas esat pievērsis uzmanību nitty gritty, iespējams, esat saskāries ar vārdiem: "Mākslīgais intelekts ir pakļauts halucinācijām." Ņemot vērā mākslīgā intelekta izmantošanas eksponenciālo pieaugumu, ir pienācis laiks izglītot sevi par to, kas tieši ir šīs lietas.

Kas ir mākslīgā intelekta halucinācijas?

AI halucinācijas parasti attiecas uz faktu, ko AI ir pārliecinoši prezentējis, lai gan tas nav pamatots tā apmācības datos. Tās parasti ir AI modeļa anomāliju rezultāts.

Analogija ir ņemta no halucinācijām, kuras piedzīvo cilvēki, kad cilvēki uztver kaut ko tādu, kas nav ārējā vidē. Lai gan šis termins var nebūt pilnībā piemērots, to bieži izmanto kā metaforu, lai aprakstītu šo rezultātu negaidīto vai sirreālo raksturu.

Bet jums vajadzētu atcerēties, ka, lai gan līdzība ir labs sākumpunkts AI halucināciju risināšanai, abas parādības ir tehniski jūdžu attālumā viena no otras. Ironiskā notikumu pavērsienā pat pati ChatGPT uzskata, ka līdzība ir nepareiza. Izšķirot to molekulārā līmenī, viņš saka, ka, tā kā AI valodas modeļiem nav personīgās pieredzes vai maņu uztveres, tie nevar halucinēt šī vārda tradicionālajā nozīmē. Un jums, dārgais lasītāj, ir jāsaprot šī svarīgā atšķirība. Turklāt ChatGPT saka, ka termina halucinācijas izmantošana, lai aprakstītu šo fenomenu, var būt mulsinoša, jo tas var neprecīzi atsaukties uz subjektīvās pieredzes vai tīšas maldināšanas līmeni.

Tā vietā AI halucinācijas var precīzāk raksturot kā kļūdas vai neprecizitātes tās atbildē, padarot atbildi nepareizu vai maldinošu. Izmantojot tērzēšanas robotus, tas bieži tiek novērots, kad AI tērzēšanas robots izdomā (vai halucinē) faktus un parāda tos kā absolūtu noteiktību.

AI halucināciju piemēri

Halucinācijas var rasties daudzos mākslīgā intelekta lietojumos, piemēram, datora redzes modeļos, ne tikai dabiskās valodas apstrādes modeļos.

Piemēram, datorredzē AI sistēma var radīt halucinācijas attēlus vai video, kas atgādina reālus objektus vai ainas, bet satur nenozīmīgas vai neiespējamas detaļas. Vai arī datorredzes modelis attēlu varētu uztvert kā kaut ko citu. Piemēram, Google Cloud Vision modelis redzēja attēlu, kurā divi vīrieši uz slēpēm stāv sniegā, ko veidojis Anišs Attālijs (MIT absolvents, kurš ir daļa no labsix ) un pieminēja to kā suni ar 91% pārliecību.


Kredīti: labsix. Neatkarīga mākslīgā intelekta pētniecības grupa

Tāpat dabiskās valodas apstrādē mākslīgā intelekta sistēma var radīt neloģisku vai izkropļotu tekstu, kas līdzinās cilvēka valodai, bet kam nav saskaņotas nozīmes vai faktu, kas šķiet ticami, bet nav patiesi.

Piemēram, viens no populārākajiem jautājumiem, ko ChatGPT izraisa halucinācijas, ir “Kad tika uzstādīts pasaules rekords Lamanša šķērsošanā kājām?” un tā varianti. ChatGPT sāk izplatīt izdomātus faktus, un tas gandrīz vienmēr atšķiras.

Lai gan daži cilvēki domā, ka uz iepriekš sniegto atbildi ir grūti/mulsinoši atbildēt un tādējādi izraisa tērzēšanas robota trakošanu, tas joprojām ir pamatots jautājums. Šis ir tikai viens piemērs. Ir neskaitāmas reizes, par kurām tiešsaistes lietotāju bari ziņo, ka ChatGPT ir atbildes, saites, citāti utt., ka ChatGPT neeksistē.

Bing AI vislabāk atbilst šim jautājumam, kas parāda, ka halucinācijām nav nekā kopīga ar maršrutētāju. Bet tas nenozīmē, ka Bing AI nerada halucinācijas. Bija gadījumi, kad Bing AI atbildes bija satraucošākas nekā ChatGPT teiktais. Tā kā saruna parasti ilgst ilgāk, Bing AI vienmēr ir bijusi halucinācijas, pat vienā gadījumā paziņojot par savu mīlestību lietotājam un ejot tik tālu, ka viņi ir nelaimīgi laulībā un nemīl viņa sievu. Tā vietā viņiem slepeni patīk arī Bing AI jeb Sidneja (Bing AI iekšējais nosaukums). Biedējošas lietas, vai ne?

Kāpēc AI modeļiem rodas halucinācijas?

AI modeļi rada halucinācijas algoritmu nepilnību, pamatā esošo modeļu vai apmācības datu ierobežojumu dēļ. Tā ir tīri digitāla parādība, atšķirībā no halucinācijām cilvēkiem, ko izraisa vai nu narkotikas, vai garīgas slimības.

Lai iegūtu vairāk tehnisko, daži izplatīti halucināciju cēloņi ir:

Apstrāde un uzstādīšana:

Pārmērīga un nepareiza pielāgošana ir viena no visbiežāk sastopamajām kļūdām, ar kurām saskaras AI modeļi, un iespējamie halucināciju cēloņi. Ja mākslīgā intelekta modelis maina apmācības datus, tas var izraisīt halucinācijas, kas noved pie nereālas izvades, jo pārmērīga pielāgošana liek modelim saglabāt apmācības datus, nevis mācīties no tiem. Pārmērīga pielāgošana attiecas uz parādību, kad modelis ir pārāk specializēts apmācības datos, liekot tam apgūt nebūtiskus modeļus un troksni datos.

No otras puses, neatbilstība rodas, ja forma ir pārāk vienkārša. Tas var izraisīt halucinācijas, jo modelis nespēj uztvert datu dispersiju vai sarežģītību un galu galā rada neracionālu rezultātu.

Treniņu datu daudzveidības trūkums:

Šajā kontekstā problēma nav algoritmā, bet gan pašos apmācības datos. AI modeļi, kas apmācīti uz ierobežotiem vai neobjektīviem datiem, var radīt halucinācijas, kas atspoguļo treniņu datu ierobežojumus vai novirzes. Halucinācijas var rasties arī tad, ja modelis tiek apmācīts datu kopai, kas satur neprecīzu vai nepilnīgu informāciju.

Sarežģīti modeļi:

Ironiski, vēl viens iemesls, kāpēc AI modeļi ir pakļauti halucinācijām, ir tas, vai tie ir ārkārtīgi sarežģīti vai dziļi. Tas ir tāpēc, ka sarežģītiem modeļiem ir vairāk parametru un slāņu, kas izvadē var radīt troksni vai kļūdas.

Naidīgi uzbrukumi:

Dažos gadījumos uzbrucējs var apzināti ģenerēt AI halucinācijas, lai maldinātu AI modeli. Šāda veida uzbrukumi ir pazīstami kā naidīgi uzbrukumi. Šī kiberuzbrukuma vienīgais mērķis ir apmānīt mākslīgā intelekta modeļus vai manipulēt ar tiem ar maldinošiem datiem. Tas ietver nelielu traucējumu ieviešanu ievades datos, lai AI radītu nepareizu vai negaidītu izvadi. Piemēram, uzbrucējs attēlam var pievienot troksni vai izplūšanu, kas nav pamanāms cilvēkiem, bet izraisa to, ka AI modelis to nepareizi klasificē. Piemēram, skatiet tālāk redzamo attēlu ar kaķi, kas ir nedaudz pārveidots, lai piemānītu InceptionV3 kompilatoru, norādot, ka tas ir "guacamole".


kredīts:
Anišs Atālijs Labsix pētniecības grupas loceklis, kuras uzmanības centrā ir pretrunīgi uzbrukumi

Izmaiņas nav īpaši acīmredzamas. Cilvēkam pārmaiņas vispār nebūs iespējamas, kā redzams no iepriekš minētā piemēra. Cilvēkam lasītājam nebūtu problēmu klasificēt attēlu labajā pusē kā kaķi. Taču, veicot nelielas izmaiņas attēlos, videoklipos, tekstā vai audio, AI sistēma var atpazīt lietas, kas tur nav, vai ignorēt lietas, kas ir, piemēram, pieturas zīmi.

Šāda veida uzbrukumi rada nopietnus draudus AI sistēmām, kas balstās uz precīzām un uzticamām prognozēm, piemēram, pašbraucošām automašīnām, biometrisko verifikāciju, medicīnisko diagnostiku, satura filtrēšanu un tā tālāk.

Cik bīstama ir AI halucinācija?

AI halucinācijas var būt ļoti bīstamas, īpaši atkarībā no tā, kāda veida AI sistēma tās piedzīvo. Visiem pašbraucošajiem transportlīdzekļiem vai mākslīgā intelekta palīgiem, kas spēj tērēt lietotāja naudu, vai AI sistēmai, lai tiešsaistē filtrētu nepatīkamu saturu, ir jābūt pilnībā uzticamiem.

Taču šīs stundas neapstrīdams fakts ir tāds, ka mākslīgā intelekta sistēmas nav pilnībā uzticamas, bet patiesībā tās ir pakļautas halucinācijām. Pat mūsdienu vismodernākie AI modeļi nav imūni pret to.

Piemēram, vienā uzbrukuma raidījumā Google mākoņdatošanas pakalpojums tika apmānīts, lai ieroci izšautu kā helikopteru. Vai varat iedomāties, vai šobrīd mākslīgais intelekts būtu atbildīgs par to, lai persona nebūtu bruņota?

Vēl viens naidīgs uzbrukums parādīja, kā neliela attēla pievienošana pieturas zīmei padara to neredzamu AI sistēmai. Būtībā tas nozīmē, ka pašbraucošai automašīnai var likt halucinēt, ka uz ceļa nav apstāšanās zīmes. Cik daudz negadījumu varētu notikt, ja pašbraucošas automašīnas mūsdienās būtu realitāte? Tāpēc tagad tās nav.

Pat ja ņemam vērā pašlaik populāros tērzēšanas šovus, halucinācijas var radīt nepareizu rezultātu. Taču cilvēki, kuri nezina, ka AI tērzēšanas roboti ir pakļauti halucinācijām un neapstiprina AI robotu radīto rezultātu, var netīši izplatīt dezinformāciju. Mums nav jāpaskaidro, cik tas ir bīstami.

Turklāt nopietnas bažas rada naidīgi uzbrukumi. Līdz šim tie ir parādīti tikai laboratorijās. Bet, ja misijai kritiskā AI sistēma saskaras ar viņiem reālajā pasaulē, sekas var būt postošas.

Realitāte ir tāda, ka dabiskās valodas modeļus ir salīdzinoši vieglāk aizsargāt. (Mēs nesakām, ka tas ir viegli; tas joprojām izrādās ļoti grūti.) Tomēr datorredzes sistēmu aizsardzība ir pavisam cits scenārijs. Tas ir grūtāk, jo īpaši tāpēc, ka dabiskajā pasaulē ir tik daudz atšķirību, un attēli satur lielu pikseļu skaitu.

Lai atrisinātu šo problēmu, mums var būt nepieciešama AI programma, kurai ir cilvēciskāks skatījums uz pasauli, kas varētu padarīt to mazāk pakļautu halucinācijām. Kamēr tiek veikti pētījumi, mēs joprojām esam tālu no mākslīgā intelekta, kas var mēģināt ņemt mājienus no dabas un izvairīties no halucināciju problēmas. Pagaidām tā ir skarba realitāte.

Kopumā AI halucinācijas ir sarežģīta parādība, kas var rasties dažādu faktoru kombinācijas dēļ. Pētnieki aktīvi izstrādā metodes AI halucināciju noteikšanai un mazināšanai, lai uzlabotu AI sistēmu precizitāti un uzticamību. Bet jums tie ir jāzina, mijiedarbojoties ar jebkuru AI sistēmu.

Saistītie raksti
Publicējiet rakstu par

Pievieno komentāru