Ano ang isang AI hallucination?

Alamin ang tungkol sa isang kakaibang kaso ng isang AI hallucination

Ang paglaganap ng artificial intelligence ay nagpapaisip na handa na tayo para sa gayong gawain. Ang mga application na pinapagana ng AI ay nagiging pamantayan nang medyo mabilis, kahit na ang karamihan sa mundo ay ngayon pa lang nagsisimulang magkaroon ng interes sa AI sa malaking sukat, pagkatapos ng pagdating ng ChatGPT. Ngunit may malaking problema sa mga AI system na hindi maaaring balewalain - AI hallucinations, o artipisyal na guni-guni.

Kung napagtuunan mo ng pansin ang nitty gritty bago gumamit ng AI chatbot, maaaring nabasa mo na ang mga salita, "Ang artificial intelligence ay madaling kapitan ng mga guni-guni." Dahil sa exponential na pagtaas sa paggamit ng artificial intelligence, oras na para turuan ang iyong sarili kung ano ang eksaktong mga bagay na ito.

Ano ang artificial intelligence hallucination?

Ang AI hallucinating, sa pangkalahatan, ay tumutukoy sa isang katotohanang kumpiyansa na ipinakita ng AI, kahit na hindi ito makatwiran sa data ng pagsasanay nito. Kadalasan ang mga ito ay resulta ng mga anomalya sa modelo ng AI.

Ang pagkakatulad ay kinuha mula sa mga guni-guni na nararanasan ng mga tao, kung saan nakikita ng mga tao ang isang bagay na wala sa panlabas na kapaligiran. Bagama't ang termino ay maaaring hindi ganap na angkop, madalas itong ginagamit bilang isang metapora upang ilarawan ang hindi inaasahang o surreal na katangian ng mga output na ito.

Ngunit dapat mong tandaan na habang ang pagkakatulad ay isang magandang panimulang punto para sa pagharap sa mga guni-guni ng AI, ang dalawang phenomena ay teknikal na milya ang pagitan. Sa isang kabalintunaan ng mga kaganapan, kahit na ang ChatGPT mismo ay nakakahanap ng pagkakatulad na mali. Ang pag-dissect nito sa antas ng molekular, sinabi niya na dahil ang mga modelo ng wika ng AI ay walang personal na karanasan o pandama na pananaw, hindi sila maaaring mag-hallucinate sa tradisyonal na kahulugan ng salita. At ikaw, mahal na mambabasa, ay kailangang maunawaan ang mahalagang pagkakaibang ito. Higit pa rito, sinasabi ng ChatGPT na ang paggamit ng terminong mga guni-guni upang ilarawan ang hindi pangkaraniwang bagay na ito ay maaaring nakakalito dahil maaari itong hindi tumpak na tumutukoy sa isang antas ng pansariling karanasan o sinadyang panlilinlang.

Sa halip, ang mga guni-guni ng AI ay maaaring mas tumpak na ilarawan bilang mga error o kamalian sa tugon nito, na ginagawang mali o mapanlinlang ang tugon. Sa mga chatbots, madalas itong sinusunod kapag ang AI chatbot ay bumubuo (o nagha-hallucinate) ng mga katotohanan at ipinakita ang mga ito bilang ganap na katiyakan.

Mga halimbawa ng AI hallucinations

Maaaring mangyari ang mga hallucination sa maraming aplikasyon ng artificial intelligence, tulad ng mga modelo ng computer vision, hindi lamang sa mga natural na modelo ng pagproseso ng wika.

Sa computer vision, halimbawa, ang isang AI system ay maaaring gumawa ng mga hallucinatory na larawan o video na kahawig ng mga tunay na bagay o eksena ngunit naglalaman ng hindi mahalaga o imposibleng mga detalye. O kaya, ang isang modelo ng computer vision ay maaaring malasahan ang imahe bilang ibang bagay. Halimbawa, ang Cloud Vision model ng Google ay nakakita ng larawan ng dalawang lalaking naka-ski na nakatayo sa snow na ginawa ni Anish Athalye (isang MIT graduate student na bahagi ng labsix ) at binanggit ito bilang isang aso na may 91% na katiyakan.


Mga kredito: labsix. Isang independiyenteng pangkat ng pananaliksik para sa artificial intelligence

Katulad nito, sa natural na pagpoproseso ng wika, ang isang AI system ay maaaring gumawa ng hindi makatwiran o magulo na teksto na kahawig ng wika ng tao ngunit walang magkakaugnay na kahulugan o mga katotohanan na mukhang kapani-paniwala ngunit hindi totoo.

Halimbawa, ang isa sa mga pinakasikat na tanong na sanhi ng mga guni-guni ng ChatGPT ay "Kailan naitakda ang world record para sa pagtawid sa English Channel sa paglalakad?" at mga variant nito. Nagsisimula ang ChatGPT sa pagkalat ng mga gawa-gawang katotohanan at halos palaging naiiba.

Habang iniisip ng ilang tao na ang sagot sa itaas ay mahirap/nakalilito na sagutin at sa gayon ay nagiging sanhi ng pag-awit ng chatbot, ito ay isang wastong alalahanin pa rin. Ito ay isa lamang halimbawa. Maraming beses, na iniulat ng mga sangkawan ng mga user online, na ang ChatGPT ay may mga sagot, link, pagsipi, atbp. na ang ChatGPT ay hindi umiiral.

Ang Bing AI ay pinakaangkop sa tanong na ito, na nagpapakita na ang mga guni-guni ay walang kinalaman sa router. Ngunit hindi iyon nangangahulugan na ang Bing AI ay hindi nagha-hallucinate. May mga pagkakataon na mas nakakabahala ang mga sagot ni Bing AI kaysa sa anumang sinabi ng ChatGPT. Dahil mas tumatagal ang pag-uusap, palaging nagha-hallucinate ang Bing AI, kahit na ipinapahayag ang pagmamahal nito sa isang user sa isang pagkakataon at hanggang sa sabihin sa kanila na hindi sila masaya sa kanilang pagsasama at hindi nila mahal ang kanyang asawa. Sa halip, lihim din silang mahilig sa Bing AI, o Sydney, (ang panloob na pangalan para sa Bing AI). Nakakatakot na bagay, tama ba?

Bakit nagha-hallucinate ang mga modelo ng AI?

Ang mga modelo ng AI ay nagha-hallucinate dahil sa mga pagkukulang ng mga algorithm, ang pinagbabatayan na mga modelo, o ang mga limitasyon ng data ng pagsasanay. Isa itong puro digital phenomenon, hindi tulad ng mga guni-guni sa mga tao na sanhi ng alinman sa mga droga o sakit sa isip.

Upang makakuha ng mas teknikal, ilang karaniwang sanhi ng mga guni-guni ay:

Pagproseso at pag-install:

Ang overfitting at improper fitting ay kabilang sa mga pinakakaraniwang pitfalls na kinakaharap ng mga modelo ng AI at posibleng dahilan ng mga guni-guni. Kung babaguhin ng modelong AI ang data ng pagsasanay, maaari itong magdulot ng mga guni-guni na humahantong sa hindi makatotohanang output dahil nagiging sanhi ng overfitting ang modelo na i-save ang data ng pagsasanay sa halip na matuto mula dito. Ang overfitting ay tumutukoy sa hindi pangkaraniwang bagay kapag ang isang modelo ay masyadong dalubhasa sa data ng pagsasanay, na nagiging sanhi upang matutunan nito ang mga hindi nauugnay na pattern at ingay sa data.

Sa kabilang banda, ang pagiging hindi naaangkop ay nangyayari kapag ang form ay masyadong simple. Maaari itong humantong sa mga guni-guni dahil hindi makuha ng modelo ang pagkakaiba o pagiging kumplikado ng data, at nagtatapos sa pagbuo ng hindi makatwiran na output.

Kakulangan ng pagkakaiba-iba sa data ng pagsasanay:

Sa kontekstong ito, ang problema ay hindi ang algorithm kundi ang data ng pagsasanay mismo. Ang mga modelo ng AI na sinanay sa limitado o bias na data ay maaaring makabuo ng mga guni-guni na nagpapakita ng mga limitasyon o bias sa data ng pagsasanay. Ang mga halusinasyon ay maaari ding mangyari kapag ang modelo ay sinanay sa isang set ng data na naglalaman ng hindi tumpak o hindi kumpletong impormasyon.

Mga kumplikadong modelo:

Kabalintunaan, ang isa pang dahilan kung bakit ang mga modelo ng AI ay madaling kapitan ng mga guni-guni ay kung sila ay lubhang kumplikado o malalim. Ito ay dahil ang mga kumplikadong modelo ay may higit pang mga parameter at layer na maaaring magpakilala ng ingay o mga error sa output.

Mga pagalit na pag-atake:

Sa ilang mga kaso, ang mga guni-guni ng AI ay maaaring sadyang nabuo ng umaatake upang linlangin ang modelo ng AI. Ang mga uri ng pag-atake na ito ay kilala bilang pagalit na pag-atake. Ang tanging layunin ng cyberattack na ito ay linlangin o manipulahin ang mga modelo ng AI gamit ang mapanlinlang na data. Ito ay nagsasangkot ng pagpapasok ng maliliit na kaguluhan sa input data upang maging sanhi ng AI na makabuo ng hindi tama o hindi inaasahang output. Halimbawa, ang isang umaatake ay maaaring magdagdag ng ingay o blur sa isang imahe na hindi mahahalata ng mga tao ngunit nagiging sanhi ito ng maling pagkakaklasipika ng isang modelo ng AI. Halimbawa, tingnan ang larawan sa ibaba, isang pusa, na bahagyang binago upang linlangin ang compiler ng InceptionV3 na sabihin na ito ay "guacamole".


kredito:
Anish Athalye , isang miyembro ng labsix research group, na ang focus ay sa adversarial attacks

Ang mga pagbabago ay hindi masyadong halata. Para sa isang tao, ang pagbabago ay hindi magiging posible, gaya ng makikita sa halimbawa sa itaas. Ang isang taong mambabasa ay hindi magkakaroon ng problema sa pagkategorya ng larawan sa kanan bilang isang tabby cat. Ngunit ang paggawa ng maliliit na pagbabago sa mga larawan, video, text, o audio ay maaaring linlangin ang AI system na kilalanin ang mga bagay na wala roon o hindi papansinin ang mga bagay, tulad ng isang stop sign.

Ang mga uri ng pag-atake na ito ay nagdudulot ng malubhang banta sa mga AI system na umaasa sa tumpak at maaasahang mga hula, gaya ng mga self-driving na kotse, biometric na pag-verify, medikal na diagnostic, pag-filter ng nilalaman, at iba pa.

Gaano kapanganib ang isang AI hallucination?

Maaaring maging lubhang mapanganib ang mga guni-guni ng AI, lalo na depende sa kung anong uri ng AI system ang nakararanas ng mga ito. Dapat na ganap na mapagkakatiwalaan ang anumang mga self-driving na sasakyan o AI assistant na may kakayahang gumastos ng pera ng user o isang AI system para i-filter ang hindi kasiya-siyang content online.

Ngunit ang hindi mapag-aalinlanganang katotohanan ng oras na ito ay ang mga sistema ng AI ay hindi lubos na mapagkakatiwalaan ngunit, sa katunayan, madaling kapitan ng mga guni-guni. Kahit na ang pinaka-advanced na mga modelo ng AI ngayon ay hindi immune dito.

Halimbawa, nilinlang ng isang palabas sa pag-atake ang serbisyo ng cloud computing ng Google sa pagbuntot ng baril na parang helicopter. Maiisip mo ba kung, sa ngayon, ang AI ang may pananagutan sa pagtiyak na ang tao ay hindi armado?

Ang isa pang pagalit na pag-atake ay nagpakita kung paano ang pagdaragdag ng isang maliit na imahe sa isang stop sign ay ginagawa itong hindi nakikita ng AI system. Sa esensya, nangangahulugan ito na ang isang self-driving na kotse ay maaaring gawin upang mag-hallucinate na walang stop sign sa kalsada. Ilang aksidente ang maaaring mangyari kung ang mga self-driving na sasakyan ay totoo ngayon? Kaya pala wala sila ngayon.

Kahit na isinasaalang-alang natin ang kasalukuyang sikat na mga palabas sa chat, ang mga guni-guni ay maaaring makabuo ng maling output. Ngunit ang mga taong hindi nakakaalam na ang AI chatbots ay madaling kapitan ng mga guni-guni at hindi nagpapatunay sa output na ginawa ng mga AI bot, ay maaaring hindi sinasadyang magkalat ng maling impormasyon. Hindi natin kailangang ipaliwanag kung gaano ito mapanganib.

Higit pa rito, ang mga pagalit na pag-atake ay isang mahalagang alalahanin. Sa ngayon, ipinakita lamang ang mga ito sa mga laboratoryo. Ngunit kung ang isang mission-critical AI system ay humarap sa kanila sa totoong mundo, ang mga kahihinatnan ay maaaring mapangwasak.

Ang katotohanan ay medyo mas madaling protektahan ang mga natural na modelo ng wika. (Hindi namin sinasabing madali ito; napatunayang napakahirap pa rin nito.) Gayunpaman, ang pagprotekta sa mga computer vision system ay isang ganap na naiibang senaryo. Ito ay mas mahirap lalo na dahil napakaraming pagkakaiba-iba sa natural na mundo, at ang mga larawan ay naglalaman ng malaking bilang ng mga pixel.

Upang malutas ang problemang ito, maaaring kailanganin natin ang isang AI program na may higit na pananaw ng tao sa mundo na maaaring gawing mas madaling kapitan ng mga guni-guni. Habang ginagawa ang pagsasaliksik, malayo pa tayo mula sa isang artificial intelligence na maaaring subukang kumuha ng mga pahiwatig mula sa kalikasan at maiwasan ang problema ng mga guni-guni. Sa ngayon, sila ay isang malupit na katotohanan.

Sa pangkalahatan, ang mga guni-guni ng AI ay isang kumplikadong kababalaghan na maaaring magmula sa kumbinasyon ng mga salik. Ang mga mananaliksik ay aktibong gumagawa ng mga pamamaraan para sa pag-detect at pagpapagaan ng mga guni-guni ng AI upang mapabuti ang katumpakan at pagiging maaasahan ng mga AI system. Ngunit dapat mong malaman ang mga ito kapag nakikipag-ugnayan sa anumang AI system.

Kaugnay na mga post
I-publish ang artikulo sa

Magdagdag ng komento