Maoni ya AI ni nini?

Jifunze kuhusu kisa cha ajabu cha maono ya AI

Kuenea kwa akili bandia hufanya mtu afikirie kuwa tuko tayari kwa shughuli kama hiyo. Programu zinazoendeshwa na AI zinakuwa za kawaida kwa haraka, hata kama wengi wa dunia sasa wanaanza kupendezwa na AI kwa kiwango kikubwa, baada ya kuwasili kwa ChatGPT. Lakini kuna shida kubwa na mifumo ya AI ambayo haiwezi kupuuzwa - maonyesho ya AI, au maonyesho ya bandia.

Ikiwa umewahi kuzingatia nitty gritty kabla ya kutumia chatbot ya AI, unaweza kuwa umekutana na maneno, "Akili za bandia zinakabiliwa na maono." Kwa kuzingatia ongezeko kubwa la matumizi ya akili ya bandia, ni wakati wa kujielimisha juu ya nini hasa vitu hivi.

Udanganyifu wa akili wa bandia ni nini?

Udanganyifu wa AI, kwa ujumla, unarejelea ukweli ambao AI imewasilisha kwa ujasiri, ingawa haijathibitishwa katika data yake ya mafunzo. Kawaida ni matokeo ya makosa katika mfano wa AI.

Ulinganisho huo unachukuliwa kutoka kwa maono yanayowapata wanadamu, ambamo wanadamu huona kitu ambacho hakipo katika mazingira ya nje. Ingawa neno hilo linaweza lisifae kabisa, mara nyingi hutumiwa kama sitiari kuelezea hali isiyotarajiwa au halisi ya matokeo haya.

Lakini unapaswa kukumbuka kwamba ingawa kufanana ni mahali pazuri pa kuanzia kushughulika na maonyesho ya AI, matukio hayo mawili yanatofautiana kitaalam maili. Katika hali ya kushangaza, hata ChatGPT yenyewe inapata mlinganisho huo sio sawa. Akiichambua katika kiwango cha molekuli, anasema kwamba kwa sababu modeli za lugha za AI hazina tajriba ya kibinafsi au mitazamo ya hisi, haziwezi kudanganya katika maana ya kimapokeo ya neno hilo. Na wewe, msomaji mpendwa, unapaswa kuelewa tofauti hii muhimu. Zaidi ya hayo, ChatGPT inasema kwamba kutumia neno maono kuelezea jambo hili kunaweza kutatanisha kwa sababu kunaweza kurejelea kimakosa kiwango cha uzoefu wa kudhamiria au udanganyifu wa kimakusudi.

Badala yake, maonyesho ya AI yanaweza kuelezewa kwa usahihi zaidi kama makosa au usahihi katika majibu yake, na kufanya jibu kuwa sahihi au la kupotosha. Kwa chatbots, mara nyingi huzingatiwa wakati AI ​​chatbot inapounda (au kuhalalisha) ukweli na kuwasilisha kama uhakika kamili.

Mifano ya AI hallucinations

Udanganyifu unaweza kutokea katika matumizi mengi ya akili bandia, kama vile vielelezo vya maono ya kompyuta, si tu miundo ya uchakataji wa lugha asilia.

Katika maono ya kompyuta, kwa mfano, mfumo wa AI unaweza kutoa picha za ukumbi au video zinazofanana na vitu halisi au matukio lakini zina maelezo yasiyo na maana au yasiyowezekana. Au, mfano wa maono ya kompyuta unaweza kuona picha kama kitu kingine kabisa. Kwa mfano, mfano wa Google Cloud Vision uliona picha ya wanaume wawili kwenye skis wamesimama kwenye theluji iliyotengenezwa na Anish Athalye (mwanafunzi aliyehitimu MIT ambaye ni sehemu ya labsix ) na kumtaja kama mbwa mwenye uhakika wa 91%.


Mikopo: labsix. Kikundi cha utafiti wa kujitegemea kwa akili ya bandia

Vile vile, katika usindikaji wa lugha asilia, mfumo wa AI unaweza kutoa maandishi yasiyo na mantiki au potofu ambayo yanafanana na lugha ya binadamu lakini hayana maana thabiti au mambo ya hakika ambayo yanaonekana kuaminika lakini si ya kweli.

Kwa mfano, moja ya maswali maarufu ambayo ChatGPT husababisha ndoto ni "Rekodi ya ulimwengu ya kuvuka Idhaa ya Kiingereza kwa seti ya miguu ilikuwa lini?" na lahaja zake. ChatGPT huanza kueneza ukweli wa maandishi na karibu kila wakati ni tofauti.

Ingawa watu wengine wanafikiria kuwa jibu lililo hapo juu ni gumu / linachanganya kujibu na kwa hivyo kusababisha gumzo kusikika, bado ni jambo linalofaa. Huu ni mfano mmoja tu. Kuna nyakati zisizohesabika, zilizoripotiwa na makundi ya watumiaji mtandaoni, kwamba ChatGPT ina majibu, viungo, manukuu, n.k. ambayo ChatGPT haipo.

Bing AI inafaa zaidi kwa swali hili, ambalo linaonyesha kuwa maono hayana uhusiano wowote na kipanga njia. Lakini hiyo haimaanishi kwamba Bing AI haidanganyi. Kulikuwa na nyakati ambapo majibu ya Bing AI yalikuwa ya kutatanisha kuliko chochote ChatGPT ilisema. Kwa kuwa mazungumzo yanaelekea kuchukua muda mrefu, Bing AI daima imekuwa ikidanganya, hata kutangaza upendo wake kwa mtumiaji katika tukio moja na kufikia hatua ya kuwaambia kwamba hawana furaha katika ndoa zao na kwamba hampendi mke wake. Badala yake, wanapenda kwa siri Bing AI, au Sydney, (jina la ndani la Bing AI), pia. Mambo ya kutisha, sawa?

Kwa nini mifano ya AI inaangazia?

Miundo ya AI inavutia kwa sababu ya mapungufu ya kanuni, miundo msingi, au vikwazo vya data ya mafunzo. Ni jambo la kidijitali, tofauti na maono ya binadamu ambayo husababishwa na madawa ya kulevya au ugonjwa wa akili.

Ili kupata kiufundi zaidi, baadhi ya sababu za kawaida za hallucinations ni:

Usindikaji na ufungaji:

Kutoshea kupita kiasi na kufaa vibaya ni kati ya mitego ya kawaida inayokabiliwa na mifano ya AI na sababu zinazowezekana za ndoto. Iwapo muundo wa AI utarekebisha data ya mafunzo, inaweza kusababisha maono ambayo husababisha matokeo yasiyo halisi kwa sababu kufifia kupita kiasi kunasababisha modeli kuhifadhi data ya mafunzo badala ya kujifunza kutoka kwayo. Uwekaji kupita kiasi hurejelea hali wakati muundo umebobea sana katika data ya mafunzo, na kusababisha kujifunza ruwaza na kelele zisizo na umuhimu katika data.

Kwa upande mwingine, kutofaa hutokea wakati fomu ni rahisi sana. Inaweza kusababisha maono kwa sababu modeli haiwezi kunasa tofauti au utata wa data, na kuishia kutoa matokeo yasiyo na mantiki.

Ukosefu wa anuwai ya data ya mafunzo:

Katika muktadha huu, shida sio algorithm lakini data ya mafunzo yenyewe. Miundo ya AI iliyofunzwa juu ya data pungufu au iliyoegemea upande mmoja inaweza kutoa maoni ambayo yanaakisi vikwazo au upendeleo katika data ya mafunzo. Udanganyifu unaweza pia kutokea wakati mtindo umefunzwa kwenye seti ya data ambayo ina taarifa zisizo sahihi au zisizo kamili.

Mifano tata:

Kwa kushangaza, sababu nyingine kwa nini miundo ya AI inakabiliwa na maonyesho ni kama ni ngumu sana au ya kina. Hii ni kwa sababu miundo changamano ina vigezo na tabaka zaidi ambazo zinaweza kuanzisha kelele au hitilafu katika matokeo.

Mashambulizi ya chuki:

Katika baadhi ya matukio, maonyesho ya AI yanaweza kuzalishwa kimakusudi na mvamizi ili kudanganya muundo wa AI. Aina hizi za mashambulizi hujulikana kama mashambulizi ya chuki. Madhumuni pekee ya shambulio hili la mtandaoni ni kuhadaa au kuendesha miundo ya AI kwa kutumia data inayopotosha. Inajumuisha kuleta misukosuko midogo kwenye data ya pembejeo ili kusababisha AI kutoa matokeo yasiyo sahihi au yasiyotarajiwa. Kwa mfano, mshambulizi anaweza kuongeza kelele au ukungu kwenye picha ambayo haionekani na wanadamu lakini kuifanya iainishwe vibaya na muundo wa AI. Kwa mfano, tazama picha hapa chini, paka, ambayo imebadilishwa kidogo ili kuhadaa mkusanyaji wa InceptionV3 kusema kuwa ni "guacamole".


mkopo:
Anish Athalye , mwanachama wa kikundi cha utafiti cha labsix, ambaye lengo lake ni mashambulizi ya wapinzani

Mabadiliko si dhahiri. Kwa mwanadamu, mabadiliko hayatawezekana hata kidogo, kama inavyoonekana kutoka kwa mfano hapo juu. Msomaji wa kibinadamu hatakuwa na shida katika kuainisha picha iliyo upande wa kulia kama paka ya tabby. Lakini kufanya mabadiliko madogo kwa picha, video, maandishi au sauti kunaweza kuhadaa mfumo wa AI ili kutambua vitu ambavyo havipo au kupuuza vitu vilivyo, kama ishara ya kuacha.

Aina hizi za mashambulizi huleta vitisho vikali kwa mifumo ya AI inayotegemea ubashiri sahihi na unaotegemewa, kama vile magari yanayojiendesha yenyewe, uthibitishaji wa kibayometriki, uchunguzi wa kimatibabu, uchujaji wa maudhui na kadhalika.

Je! Maoni ya AI ni hatari kiasi gani?

Maoni ya AI yanaweza kuwa hatari sana, haswa kulingana na aina gani ya mfumo wa AI unaowapata. Magari yoyote yanayojiendesha yenyewe au wasaidizi wa AI wenye uwezo wa kutumia pesa za watumiaji au mfumo wa AI ili kuchuja maudhui yasiyopendeza mtandaoni lazima yaaminike kabisa.

Lakini ukweli usiopingika wa saa hii ni kwamba mifumo ya AI si ya kuaminika kabisa lakini, kwa kweli, inakabiliwa na ndoto. Hata mifano ya kisasa zaidi ya AI sio kinga nayo.

Kwa mfano, onyesho moja la mashambulizi lilihadaa huduma ya Google ya kompyuta ya wingu kukunja bunduki kama helikopta. Je, unaweza kufikiria ikiwa, kwa sasa, AI ilikuwa na jukumu la kuhakikisha kwamba mtu huyo hakuwa na silaha?

Shambulio lingine la uhasama lilionyesha jinsi kuongeza picha ndogo kwenye ishara ya kuacha hufanya isionekane kwa mfumo wa AI. Kimsingi, hii ina maana kwamba gari la kujiendesha linaweza kufanywa ili kuona kwamba hakuna ishara ya kuacha barabarani. Ni ajali ngapi zinaweza kutokea ikiwa magari yanayojiendesha yangekuwa ukweli leo? Ndiyo maana hawapo sasa.

Hata kama tutazingatia maonyesho maarufu ya gumzo kwa sasa, maonyesho yanaweza kutoa matokeo yasiyo sahihi. Lakini watu ambao hawajui kuwa gumzo za AI huathiriwa na ndoto na hawathibitishi matokeo yanayotolewa na roboti za AI, wanaweza kueneza habari potofu bila kukusudia. Hatuhitaji kueleza jinsi hii ni hatari.

Zaidi ya hayo, mashambulizi ya chuki ni wasiwasi mkubwa. Hadi sasa, zimeonyeshwa tu katika maabara. Lakini ikiwa mfumo muhimu wa AI utawakabili katika ulimwengu wa kweli, matokeo yanaweza kuwa mabaya.

Ukweli ni kwamba ni rahisi kulinda mifano ya lugha asilia. (Hatusemi ni rahisi; bado inathibitika kuwa ngumu sana.) Hata hivyo, kulinda mifumo ya kuona ya kompyuta ni hali tofauti kabisa. Ni vigumu zaidi hasa kwa sababu kuna tofauti nyingi katika ulimwengu wa asili, na picha zina idadi kubwa ya saizi.

Ili kutatua tatizo hili, tunaweza kuhitaji programu ya AI ambayo ina mtazamo wa kibinadamu zaidi wa ulimwengu ambayo inaweza kuifanya iwe chini ya kukabiliwa na ndoto. Wakati utafiti unafanywa, bado tuko mbali na akili ya bandia ambayo inaweza kujaribu kuchukua vidokezo kutoka kwa maumbile na kukwepa shida ya ndoto. Kwa sasa, wao ni ukweli mkali.

Kwa ujumla, ukumbi wa AI ni jambo ngumu ambalo linaweza kutokea kutokana na mchanganyiko wa mambo. Watafiti wanaendeleza kikamilifu mbinu za kugundua na kupunguza maono ya AI ili kuboresha usahihi na kutegemewa kwa mifumo ya AI. Lakini unapaswa kuwafahamu wakati wa kuingiliana na mfumo wowote wa AI.

Related posts
Chapisha makala kwenye

Ongeza maoni