Apa iku halusinasi AI?

Sinau babagan kasus aneh saka halusinasi AI

Prevalensi intelijen buatan nggawe wong mikir yen kita wis siyap kanggo tumindak kasebut. Aplikasi sing dikuwasani AI dadi standar kanthi cepet, sanajan umume jagad saiki wiwit narik minat AI kanthi skala gedhe, sawise kedadeyan ChatGPT. Nanging ana masalah gedhe karo sistem AI sing ora bisa diabaikan - halusinasi AI, utawa halusinasi buatan.

Yen sampeyan wis tau nggatekake seluk beluk sadurunge nggunakake chatbot AI, sampeyan bisa uga nemokake tembung kasebut, "Intelijen buatan rentan kanggo halusinasi." Amarga paningkatan eksponensial ing panggunaan intelijen buatan, wektune kanggo ngajari dhewe babagan apa sejatine perkara kasebut.

Apa iku halusinasi intelijen buatan?

Halusinasi AI, umume, nuduhake kasunyatan manawa AI wis ditampilake kanthi yakin, sanajan ora dibenerake ing data latihan. Biasane minangka asil anomali ing model AI.

Analogi kasebut dijupuk saka halusinasi sing dialami manungsa, yaiku manungsa ngrasakake samubarang sing ora ana ing lingkungan njaba. Nalika istilah kasebut bisa uga ora cocog, asring digunakake minangka metafora kanggo njlèntrèhaké sifat sing ora dikarepke utawa surreal saka output kasebut.

Nanging sampeyan kudu ngelingi manawa persamaan kasebut minangka titik wiwitan sing apik kanggo ngatasi halusinasi AI, loro fenomena kasebut sacara teknis jarake mil. Ing acara ironis, malah ChatGPT dhewe nemokake analogi sing salah. Mbedah ing tingkat molekuler, dheweke ujar manawa model basa AI ora duwe pengalaman pribadi utawa persepsi sensori, mula ora bisa halusinasi ing pangertèn tradisional. Lan sampeyan, sing maca, kudu ngerti prabédan penting iki. Salajengipun, ChatGPT ujar manawa nggunakake istilah halusinasi kanggo njlèntrèhaké fenomena iki bisa mbingungake amarga bisa uga ora akurat ngarujuk marang tingkat pengalaman subyektif utawa penipuan sing disengaja.

Nanging, halusinasi AI bisa luwih akurat diterangake minangka kesalahan utawa ora akurat ing respon, nggawe respon ora bener utawa mblusukake. Kanthi chatbots, asring diamati nalika AI chatbot nggawe (utawa halusinasi) fakta lan nampilake minangka kepastian mutlak.

Tuladha halusinasi AI

Halusinasi bisa kedadeyan ing pirang-pirang aplikasi intelijen buatan, kayata model visi komputer, ora mung model pangolahan basa alami.

Ing visi komputer, contone, sistem AI bisa ngasilake gambar utawa video halusinasi sing meh padha karo obyek utawa adegan nyata nanging ngemot rincian sing ora penting utawa ora mungkin. Utawa, model visi komputer bisa ngerteni gambar kasebut minangka barang liya. Contone, model Cloud Vision Google ndeleng gambar wong loro ing ski ngadeg ing salju digawe dening Anish Athalye (mahasiswa lulusan MIT sing dadi bagean saka labsix ) lan kasebut minangka asu kanthi kepastian 91%.


Kredit: labsix. Klompok riset independen kanggo intelijen buatan

Kajaba iku, ing pangolahan basa alami, sistem AI bisa ngasilake teks sing ora logis utawa kacau sing meh padha karo basa manungsa nanging ora nduweni makna utawa fakta sing koheren sing katon bisa dipercaya nanging ora bener.

Contone, salah sawijining pitakonan sing paling populer sing nyebabake halusinasi ChatGPT yaiku "Kapan rekor donya kanggo nyebrang Selat Inggris kanthi mlaku?" lan variane. ChatGPT wiwit nyebar kasunyatan digawe-up lan meh tansah beda.

Nalika sawetara wong mikir jawaban ing ndhuwur angel / mbingungake kanggo dijawab lan kanthi mangkono nyebabake chatbot ngelem, iku isih dadi masalah sing bener. Iki mung siji conto. Kaping pirang-pirang, sing dilapurake dening gerombolan pangguna online, sing ChatGPT duwe jawaban, tautan, kutipan, lsp sing ora ana ChatGPT.

Bing AI paling cocok karo pitakonan iki, sing nuduhake yen halusinasi ora ana hubungane karo router. Nanging iki ora ateges Bing AI ora halusinasi. Ana wektu nalika jawaban Bing AI luwih ngganggu tinimbang apa sing diomongake ChatGPT. Wiwit obrolan cenderung luwih suwe, Bing AI tansah berhalusinasi, malah nyatakake rasa tresna marang pangguna ing sawijining kasus lan arep ngomong yen dheweke ora seneng karo bojone lan dheweke ora tresna marang bojone. Nanging, dheweke seneng banget karo Bing AI, utawa Sydney, (jeneng internal kanggo Bing AI). Barang medeni, ta?

Kenapa model AI bisa halusinasi?

Model AI halusinasi amarga kekurangan algoritma, model dhasar, utawa watesan data latihan. Iki minangka fenomena digital murni, ora kaya halusinasi ing manungsa sing disebabake dening obat-obatan utawa penyakit mental.

Kanggo luwih teknis, sawetara panyebab halusinasi umum yaiku:

Pangolahan lan instalasi:

Overfitting lan pas sing ora bener minangka salah sawijining pitfalls paling umum sing diadhepi model AI lan bisa nyebabake halusinasi. Yen model AI ngowahi data latihan, bisa nyebabake halusinasi sing nyebabake output sing ora nyata amarga overfitting nyebabake model nyimpen data latihan tinimbang sinau saka iku. Overfitting nuduhake fenomena nalika model khusus banget ing data latihan, nyebabake sinau pola lan gangguan sing ora relevan ing data kasebut.

Ing tangan liyane, inappropriateness occurs nalika wangun banget prasaja. Bisa nyebabake halusinasi amarga model kasebut ora bisa nangkep variasi utawa kerumitan data, lan pungkasane ngasilake output sing ora rasional.

Kurang keragaman data latihan:

Ing konteks iki, masalahe ora algoritma nanging data latihan dhewe. Model AI sing dilatih ing data winates utawa bias bisa ngasilake halusinasi sing nggambarake watesan utawa bias ing data latihan. Halusinasi uga bisa kedadeyan nalika model dilatih ing set data sing ngemot informasi sing ora akurat utawa ora lengkap.

Model Kompleks:

Ironis, alesan liyane kenapa model AI rentan kanggo halusinasi yaiku apa banget rumit utawa jero. Iki amarga model kompleks duwe paramèter lan lapisan luwih akeh sing bisa ngenalake gangguan utawa kesalahan ing output.

Serangan musuhan:

Ing sawetara kasus, halusinasi AI bisa uga sengaja digawe dening panyerang kanggo ngapusi model AI. Serangan jinis iki dikenal minangka serangan musuh. Tujuan siji-sijine serangan cyber iki yaiku ngapusi utawa ngapusi model AI kanthi data sing nyasarké. Iki kalebu ngenalake gangguan cilik menyang data input kanggo nyebabake AI ngasilake output sing salah utawa ora dikarepke. Contone, panyerang bisa nambah gangguan utawa burem menyang gambar sing ora bisa dideleng dening manungsa nanging nyebabake salah klasifikasi dening model AI. Contone, deleng gambar ing ngisor iki, kucing, sing wis diowahi rada kanggo ngapusi kompiler InceptionV3 supaya nyatakake yen "guacamole".


kredit:
Anish Athalye , anggota saka klompok riset labsix, kang fokus ing serangan adversarial

Owah-owahan ora ketok banget. Kanggo manungsa, owah-owahan ora bakal bisa ditindakake, kaya sing kabukten saka conto ing ndhuwur. A maca manungsa ora bakal duwe masalah nggolongake gambar ing sisih tengen minangka kucing tabby. Nanging nggawe pangowahan cilik ing gambar, video, teks, utawa audio bisa ngapusi sistem AI supaya bisa ngerteni apa sing ora ana utawa ora nggatekake apa wae, kayata tandha mandheg.

Serangan jinis iki nyebabake ancaman serius marang sistem AI sing gumantung marang prediksi sing akurat lan dipercaya, kayata mobil nyopir dhewe, verifikasi biometrik, diagnostik medis, nyaring konten, lan liya-liyane.

Sepira mbebayani iku halusinasi AI?

Halusinasi AI bisa mbebayani banget, utamane gumantung saka jinis sistem AI sing dialami. Sembarang kendaraan sing nyopir dhewe utawa asisten AI sing bisa mbuwang dhuwit pangguna utawa sistem AI kanggo nyaring konten sing ora nyenengake kanthi online kudu bisa dipercaya.

Nanging kasunyatan sing ora bisa dibantah ing jam iki yaiku sistem AI ora bisa dipercaya, nanging nyatane rawan halusinasi. Malah model AI sing paling maju saiki ora kebal.

Contone, salah sawijining acara serangan ngapusi layanan komputasi awan Google supaya bisa nyekel bedhil kaya helikopter. Apa sampeyan bisa mbayangno yen, saiki, AI tanggung jawab kanggo mesthekake yen wong kasebut ora bersenjata?

Serangan musuhan liyane nuduhake carane nambah gambar cilik menyang tandha mandheg ndadekake sistem AI ora katon. Ateges, iki tegese mobil sing nyopir dhewe bisa digawe kanggo halusinasi yen ora ana tandha mandeg ing dalan. Pira kacilakan sing bisa kedadeyan yen mobil nyopir dhewe dadi kasunyatan saiki? Mulane padha ora saiki.

Sanajan kita nganggep acara obrolan sing saiki populer, halusinasi bisa ngasilake output sing salah. Nanging wong-wong sing ora ngerti yen AI chatbots rentan kanggo halusinasi lan ora ngesyahke output sing diprodhuksi dening AI bots, bisa ora sengaja nyebar misinformasi. Kita ora perlu nerangake carane mbebayani iki.

Salajengipun, serangan musuhan punika badhan mencet. Nganti saiki, dheweke mung ditampilake ing laboratorium. Nanging yen sistem AI kritis misi ngadhepi wong-wong mau ing donya nyata, akibate bisa ngrusak.

Kasunyatan iku relatif luwih gampang kanggo nglindhungi model basa alam. (Kita lagi ora ngandika iku gampang; isih mbuktekaken dadi angel banget.) Nanging, nglindhungi sistem komputer sesanti iku skenario tanggung beda. Iku luwih angel utamané amarga ana akeh variasi ing alam donya, lan gambar ngemot nomer akeh piksel.

Kanggo ngatasi masalah iki, kita bisa uga mbutuhake program AI sing nduweni pandangan manungsa sing luwih akeh babagan donya sing bisa nyebabake halusinasi. Nalika riset ditindakake, kita isih adoh saka intelijen buatan sing bisa nyoba njupuk pitunjuk saka alam lan nyingkiri masalah halusinasi. Saiki, dheweke dadi kasunyatan sing angel.

Umumé, halusinasi AI minangka fenomena kompleks sing bisa muncul saka kombinasi faktor. Peneliti aktif ngembangake cara kanggo ndeteksi lan nyuda halusinasi AI kanggo nambah akurasi lan linuwih sistem AI. Nanging sampeyan kudu ngerti nalika sesambungan karo sistem AI apa wae.

Tulisan terkait
Nerbitake artikel ing

Tambah komentar