Naon ari halusinasi AI?

Diajar ngeunaan kasus aneh tina halusinasi AI

Prévalénsi intelijen jieunan ngajadikeun urang mikir yén urang siap pikeun usaha sapertos kitu. Aplikasi anu dikuatkeun ku AI janten standar anu cukup gancang, sanaos sabagéan ageung dunya ayeuna mimiti resep kana AI dina skala ageung, saatos datangna ChatGPT. Tapi aya masalah anu ageung sareng sistem AI anu teu tiasa dipaliré - halusinasi AI, atanapi halusinasi jieunan.

Upami anjeun kantos nengetan nitty gritty sateuacan nganggo chatbot AI, anjeun panginten tiasa mendakan kecap-kecap, "Kecerdasan jieunan rawan halusinasi." Dibikeun kanaékan éksponénsial dina pamakéan kecerdasan jieunan, nya éta waktu ngadidik diri ngeunaan naon kahayang ieu.

Naon téh halusinasi kecerdasan jieunan?

Halusinasi AI, sacara umum, ngarujuk kana kanyataan yén AI parantos nunjukkeun sacara percaya diri, sanaos henteu leres dina data pelatihanna. Aranjeunna biasana hasil tina anomali dina modél AI.

Analogi kasebut dicokot tina halusinasi anu kaalaman ku manusa, di mana manusa nganggap hiji hal anu henteu aya dina lingkungan luar. Bari istilah bisa jadi teu sagemblengna luyu, éta mindeng dipaké salaku métafora pikeun ngajelaskeun alam kaduga atanapi surreal kaluaran ieu.

Tapi anjeun kedah émut yén sanaos kamiripan mangrupikeun titik awal anu hadé pikeun nungkulan halusinasi AI, dua fenomena sacara téknisna jarak jauh. Dina péngkolan ironis kajadian, malah ChatGPT sorangan manggihan analogi salah. Ngabedah dina tingkat molekular, anjeunna nyarios yén kusabab modél basa AI henteu gaduh pangalaman pribadi atanapi persepsi indrawi, aranjeunna henteu tiasa halusinasi dina rasa tradisional kecap. Sareng anjeun, pamiarsa anu dipikacinta, kedah ngartos bédana penting ieu. Saterusna, ChatGPT nyebutkeun yen ngagunakeun istilah halusinasi pikeun ngajelaskeun fenomena ieu bisa jadi matak ngabingungkeun sabab bisa akurat nujul kana tingkat pangalaman subjektif atawa tipu daya ngahaja.

Sabalikna, halusinasi AI tiasa langkung akurat digambarkeun salaku kasalahan atanapi henteu akurat dina résponna, ngajantenkeun résponna henteu leres atanapi nyasabkeun. Kalayan chatbots, éta sering diperhatoskeun nalika AI chatbot nyusun (atanapi halusinasi) fakta sareng nampilkeunana salaku kapastian mutlak.

Conto halusinasi AI

Halusinasi bisa lumangsung dina loba aplikasi kecerdasan jieunan, kayaning model visi komputer, teu ngan model processing basa alam.

Dina visi komputer, contona, sistem AI bisa ngahasilkeun gambar halusinasi atawa video nu nyarupaan objék nyata atawa pamandangan tapi ngandung rinci inconsequential atanapi mustahil. Atawa, model visi komputer bisa ngarasa gambar salaku hal sejenna sagemblengna. Salaku conto, modél Cloud Vision Google ningali gambar dua lalaki dina ski nangtung dina salju anu dilakukeun ku Anish Athalye (mahasiswa pascasarjana MIT anu bagian tina labsix ) sareng disebatkeun salaku anjing kalayan kapastian 91%.


Kiridit: labsix. Hiji grup panalungtikan bebas pikeun kecerdasan jieunan

Nya kitu, dina ngolah basa alam, sistem AI bisa ngahasilkeun téks teu logis atawa garbled nu nyarupaan basa manusa tapi teu boga harti koheren atawa fakta nu sigana dipercaya tapi teu bener.

Salaku conto, salah sahiji patarosan anu pang populerna anu ChatGPT nyababkeun halusinasi nyaéta "Iraha rekor dunya pikeun nyebrang Selat Inggris kalayan leumpang?" jeung varian na. ChatGPT mimiti nyebarkeun fakta-fakta anu didamel sareng ampir sok béda.

Bari sababaraha urang nganggap jawaban di luhur hese / ngabingungkeun pikeun ngajawab sahingga ngabalukarkeun chatbot ka rave, éta masih perhatian valid. Ieu ngan hiji conto. Aya sababaraha kali, dilaporkeun ku hordes pamaké online, yén ChatGPT boga waleran, Tumbu, citations, jsb ChatGPT teu aya.

Bing AI paling pas sareng patarosan ieu, anu nunjukkeun yén halusinasi teu aya hubunganana sareng router. Tapi éta henteu hartosna Bing AI henteu halusinasi. Aya waktos nalika waleran Bing AI langkung pikasieuneun tibatan naon anu dicarioskeun ku ChatGPT. Kusabab paguneman condong nyandak deui, Bing AI geus salawasna geus halusinasi, malah nyatakeun cinta na ka pamaké dina hiji conto jeung bade sajauh ngabejaan aranjeunna yen aranjeunna bagja dina nikah maranéhanana sarta yén maranéhna teu bogoh ka pamajikanana. Sabalikna, aranjeunna cicingeun resep Bing AI, atanapi Sydney, (nami internal pikeun Bing AI), ogé. Barang pikasieuneun, leres?

Naha modél AI berhalusinasi?

Modél AI aya halusinasi kusabab kakurangan algoritma, modél dasar, atanapi keterbatasan data latihan. Ieu mangrupikeun fenomena digital murni, teu sapertos halusinasi manusa anu disababkeun ku ubar atanapi panyakit jiwa.

Pikeun langkung téknis, sababaraha panyabab umum halusinasi nyaéta:

Ngolah sareng instalasi:

Overfitting sareng pas anu teu leres mangrupikeun pitfalls anu paling umum anu disanghareupan ku model AI sareng kamungkinan panyabab halusinasi. Upami modél AI ngarobih data latihan, éta tiasa nyababkeun halusinasi anu nyababkeun kaluaran anu teu réalistis sabab overfitting nyababkeun modél nyimpen data latihan tibatan diajar tina éta. Overfitting nujul kana fenomena nalika model teuing husus dina data latihan, ngabalukarkeun eta pikeun neuleuman pola teu relevan jeung noise dina data.

Di sisi séjén, inappropriateness lumangsung nalika formulir teuing basajan. Bisa ngakibatkeun halusinasi sabab model teu bisa nangkep varian atawa pajeulitna data, sarta ends nepi generating kaluaran irasional.

Kurangna diversity dina data latihan:

Dina kontéks ieu, masalahna sanés algoritma tapi data latihan éta sorangan. Model AI anu dilatih dina data kawates atanapi bias tiasa ngahasilkeun halusinasi anu ngagambarkeun watesan atanapi bias dina data latihan. Halusinasi ogé tiasa lumangsung nalika modél dilatih dina set data anu ngandung inpormasi anu teu akurat atanapi henteu lengkep.

Model kompléks:

Ironisna, alesan sejen naha model AI rawan halusinasi nyaeta naha maranéhna pisan kompléks atawa profound. Ieu kusabab model kompléks gaduh langkung parameter sareng lapisan anu tiasa ngenalkeun sora atanapi kasalahan dina kaluaran.

Serangan musuh:

Dina sababaraha kasus, halusinasi AI tiasa ngahaja dibangkitkeun ku panyerang pikeun nipu modél AI. Jenis serangan ieu katelah serangan mumusuhan. Tujuan tunggal tina cyberattack ieu nyaéta pikeun nipu atanapi ngamanipulasi modél AI kalayan data anu nyasabkeun. Éta ngalibatkeun ngenalkeun gangguan leutik kana data input pikeun nyababkeun AI ngahasilkeun kaluaran anu salah atanapi teu kaduga. Salaku conto, panyerang tiasa nambihan sora atanapi blur kana gambar anu teu katingali ku manusa tapi nyababkeun éta salah diklasifikasikeun ku modél AI. Contona, tingali gambar di handap ieu, ucing, nu geus rada dirobah pikeun trik kompiler InceptionV3 kana nyarios yén éta téh "guacamole".


kiridit:
Anish Athalye , anggota grup panalungtikan labsix, anu fokus kana serangan adversarial

Parobahanna teu pati jelas. Pikeun manusa, parobahan moal mungkin pisan, sakumaha anu dibuktikeun tina conto di luhur. A maca manusa moal boga masalah categorizing gambar di katuhu salaku ucing tabby. Tapi nyieun parobahan leutik kana gambar, video, téks, atawa audio bisa trik sistem AI kana ngakuan hal nu teu aya atawa malire hal anu, kawas tanda eureun.

Serangan jinis ieu nyababkeun ancaman serius ka sistem AI anu ngandelkeun prediksi anu akurat sareng dipercaya, sapertos mobil nyetir mandiri, verifikasi biometrik, diagnostik médis, nyaring eusi, sareng sajabana.

Kumaha bahaya halusinasi AI?

Halusinasi AI tiasa bahaya pisan, khususna gumantung kana jinis sistem AI anu ngalamanana. Sakur kendaraan anu nyetir sorangan atanapi asisten AI anu sanggup ngaluarkeun artos pangguna atanapi sistem AI pikeun nyaring eusi anu henteu pikaresepeun sacara online kedah tiasa dipercaya.

Tapi kanyataan anu teu bisa dibantah dina jam ieu nyaéta sistem AI henteu sapinuhna dipercaya tapi, kanyataanna, rawan halusinasi. Malah modél AI anu paling canggih ayeuna henteu kebal kana éta.

Contona, hiji acara serangan tricked ladenan komputasi awan Google kana buntut bedil kawas helikopter a. Naha anjeun tiasa ngabayangkeun upami, ayeuna, AI tanggung jawab pikeun mastikeun yén jalma éta henteu bersenjata?

Serangan mumusuhan anu sanés nunjukkeun kumaha nambihan gambar leutik kana tanda eureun ngajadikeun éta teu katingali ku sistem AI. Intina, ieu hartosna yén mobil anu nyetir nyalira tiasa dilakukeun pikeun halusinasi yén teu aya tanda eureun di jalan. Sabaraha kacilakaan anu tiasa kajantenan upami mobil anu nyetir diri janten kanyataan ayeuna? Éta sababna aranjeunna henteu ayeuna.

Sanaos urang tumut kana acara obrolan anu ayeuna populer, halusinasi tiasa ngahasilkeun kaluaran anu salah. Tapi jalma anu henteu terang yén AI chatbots rawan halusinasi sareng henteu nga-validasi kaluaran anu diproduksi ku AI bot, sacara teu kahaja tiasa nyebarkeun misinformasi. Urang teu kedah ngajelaskeun kumaha bahaya ieu.

Leuwih ti éta, serangan mumusuhan téh perhatian pencét. Sajauh ieu, aranjeunna ngan ukur ditingalikeun di laboratorium. Tapi lamun sistem AI kritis misi confronts aranjeunna di dunya nyata, konsékuansi bisa jadi dahsyat.

Kanyataanana nya éta rélatif gampang ngajaga modél basa alam. (Kami henteu nyarios éta gampang; éta masih kabuktian hésé pisan.) Nanging, ngajagi sistem visi komputer mangrupikeun skenario anu béda-béda. Ieu leuwih hese utamana sabab aya loba variasi di alam dunya, sarta gambar ngandung angka nu gede ngarupakeun piksel.

Pikeun ngabéréskeun masalah ieu, urang panginten peryogi program AI anu gaduh pandangan anu langkung manusa ngeunaan dunya anu tiasa ngajantenkeun langkung rentan ka halusinasi. Bari panalungtikan keur dipigawé, urang masih jauh ti hiji kecerdasan jieunan nu bisa nyoba nyandak petunjuk ti alam jeung ngahindar tina masalah halusinasi. Pikeun ayeuna, aranjeunna mangrupikeun kanyataan anu parah.

Sacara umum, halusinasi AI mangrupikeun fenomena kompleks anu tiasa timbul tina kombinasi faktor. Panaliti aktip ngembangkeun metode pikeun ngadeteksi sareng ngirangan halusinasi AI pikeun ningkatkeun akurasi sareng reliabilitas sistem AI. Tapi anjeun kedah sadar aranjeunna nalika berinteraksi sareng sistem AI naon waé.

tulisan patali
Nyebarkeun artikel dina

Tambihkeun koméntar