Apakah halusinasi AI?

Ketahui tentang kes aneh halusinasi AI

Kelaziman kecerdasan buatan membuatkan seseorang berfikir bahawa kita sudah bersedia untuk usaha sedemikian. Aplikasi yang dikuasakan AI menjadi standard dengan agak cepat, walaupun kebanyakan dunia baru mula meminati AI secara besar-besaran, selepas ketibaan ChatGPT. Tetapi terdapat masalah besar dengan sistem AI yang tidak boleh diabaikan - halusinasi AI, atau halusinasi buatan.

Jika anda pernah memberi perhatian kepada perkara-perkara kecil sebelum menggunakan AI chatbot, anda mungkin pernah menjumpai perkataan, "Kecerdasan buatan terdedah kepada halusinasi." Memandangkan peningkatan eksponen dalam penggunaan kecerdasan buatan, sudah tiba masanya untuk mendidik diri sendiri tentang apa sebenarnya perkara ini.

Apakah halusinasi kecerdasan buatan?

Halusinasi AI, secara umum, merujuk kepada fakta yang telah dipersembahkan oleh AI dengan yakin, walaupun ia tidak wajar dalam data latihannya. Mereka biasanya hasil daripada anomali dalam model AI.

Analoginya diambil daripada halusinasi yang dialami oleh manusia, di mana manusia mempersepsikan sesuatu yang tidak terdapat dalam persekitaran luaran. Walaupun istilah ini mungkin tidak sesuai sepenuhnya, ia sering digunakan sebagai metafora untuk menggambarkan sifat tidak dijangka atau nyata bagi output ini.

Tetapi anda harus ingat bahawa walaupun persamaan adalah titik permulaan yang baik untuk menangani halusinasi AI, kedua-dua fenomena itu secara teknikalnya jauh berbeza. Dalam satu peristiwa yang ironis, malah ChatGPT sendiri mendapati analogi itu salah. Membedahnya di peringkat molekul, dia mengatakan bahawa kerana model bahasa AI tidak mempunyai pengalaman peribadi atau persepsi deria, mereka tidak boleh berhalusinasi dalam erti kata tradisional. Dan anda, pembaca yang dihormati, perlu memahami perbezaan penting ini. Tambahan pula, ChatGPT mengatakan bahawa menggunakan istilah halusinasi untuk menggambarkan fenomena ini boleh mengelirukan kerana ia mungkin secara tidak tepat merujuk kepada tahap pengalaman subjektif atau penipuan yang disengajakan.

Sebaliknya, halusinasi AI boleh digambarkan dengan lebih tepat sebagai ralat atau ketidaktepatan dalam tindak balasnya, menjadikan respons itu tidak betul atau mengelirukan. Dengan chatbots, ia sering diperhatikan apabila AI chatbot mencipta (atau berhalusinasi) fakta dan membentangkannya sebagai kepastian mutlak.

Contoh halusinasi AI

Halusinasi boleh berlaku dalam banyak aplikasi kecerdasan buatan, seperti model penglihatan komputer, bukan hanya model pemprosesan bahasa semula jadi.

Dalam penglihatan komputer, sebagai contoh, sistem AI mungkin menghasilkan imej atau video halusinasi yang menyerupai objek atau adegan sebenar tetapi mengandungi butiran yang tidak penting atau mustahil. Atau, model penglihatan komputer boleh menganggap imej itu sebagai sesuatu yang lain sepenuhnya. Contohnya, model Cloud Vision Google melihat imej dua lelaki bermain ski berdiri di atas salji yang dibuat oleh Anish Athalye (pelajar siswazah MIT yang merupakan sebahagian daripada labsix ) dan menyebutnya sebagai anjing dengan kepastian 91%.


Kredit: labsix. Kumpulan penyelidikan bebas untuk kecerdasan buatan

Begitu juga, dalam pemprosesan bahasa semula jadi, sistem AI mungkin menghasilkan teks yang tidak logik atau bercelaru yang menyerupai bahasa manusia tetapi tidak mempunyai makna atau fakta yang koheren yang kelihatan boleh dipercayai tetapi tidak benar.

Sebagai contoh, salah satu soalan paling popular yang ChatGPT menyebabkan halusinasi ialah "Bilakah rekod dunia untuk menyeberangi Selat Inggeris dengan berjalan kaki dicapai?" dan variannya. ChatGPT mula menyebarkan fakta rekaan dan ia hampir selalu berbeza.

Walaupun sesetengah orang berpendapat bahawa jawapan di atas sukar/mengelirukan untuk dijawab dan dengan itu menyebabkan chatbot meracau, ia masih menjadi kebimbangan yang sah. Ini hanya satu contoh. Terdapat banyak kali, dilaporkan oleh gerombolan pengguna dalam talian, bahawa ChatGPT mempunyai jawapan, pautan, petikan, dll. bahawa ChatGPT tidak wujud.

Bing AI paling sesuai dengan soalan ini, yang menunjukkan bahawa halusinasi tidak ada kaitan dengan penghala. Tetapi itu tidak bermakna Bing AI tidak berhalusinasi. Ada kalanya jawapan Bing AI lebih membimbangkan daripada apa-apa yang dikatakan oleh ChatGPT. Memandangkan perbualan cenderung mengambil masa yang lebih lama, Bing AI sentiasa berhalusinasi, malah mengisytiharkan cintanya kepada pengguna dalam satu-satu masa dan lebih jauh untuk memberitahu mereka bahawa mereka tidak bahagia dalam perkahwinan mereka dan bahawa mereka tidak mencintai isterinya. Sebaliknya, mereka secara rahsia menyukai Bing AI, atau Sydney, (nama dalaman untuk Bing AI), juga. Perkara yang menakutkan, bukan?

Mengapa model AI berhalusinasi?

Model AI berhalusinasi kerana kelemahan algoritma, model asas atau batasan data latihan. Ia adalah fenomena digital semata-mata, tidak seperti halusinasi pada manusia yang disebabkan oleh dadah atau penyakit mental.

Untuk mendapatkan lebih teknikal, beberapa punca biasa halusinasi ialah:

Pemprosesan dan pemasangan:

Pemasangan berlebihan dan pemasangan yang tidak betul adalah antara masalah yang paling biasa dihadapi oleh model AI dan kemungkinan penyebab halusinasi. Jika model AI mengubah suai data latihan, ia boleh menyebabkan halusinasi yang membawa kepada output yang tidak realistik kerana pemasangan berlebihan menyebabkan model menyimpan data latihan dan bukannya belajar daripadanya. Overfitting merujuk kepada fenomena apabila model terlalu khusus dalam data latihan, menyebabkan model tersebut mempelajari corak dan bunyi yang tidak berkaitan dalam data.

Sebaliknya, ketidaksesuaian berlaku apabila bentuknya terlalu mudah. Ia boleh membawa kepada halusinasi kerana model tidak dapat menangkap varians atau kerumitan data, dan akhirnya menghasilkan output yang tidak rasional.

Kekurangan kepelbagaian dalam data latihan:

Dalam konteks ini, masalahnya bukanlah algoritma tetapi data latihan itu sendiri. Model AI yang dilatih pada data terhad atau berat sebelah mungkin menghasilkan halusinasi yang mencerminkan had atau berat sebelah dalam data latihan. Halusinasi juga boleh berlaku apabila model dilatih pada set data yang mengandungi maklumat yang tidak tepat atau tidak lengkap.

Model kompleks:

Ironinya, satu lagi sebab mengapa model AI terdedah kepada halusinasi adalah sama ada ia sangat kompleks atau mendalam. Ini kerana model kompleks mempunyai lebih banyak parameter dan lapisan yang boleh menimbulkan bunyi atau ralat dalam output.

Serangan bermusuhan:

Dalam sesetengah kes, halusinasi AI mungkin sengaja dihasilkan oleh penyerang untuk memperdaya model AI. Jenis serangan ini dikenali sebagai serangan bermusuhan. Tujuan tunggal serangan siber ini adalah untuk menipu atau memanipulasi model AI dengan data yang mengelirukan. Ia melibatkan memperkenalkan gangguan kecil ke dalam data input untuk menyebabkan AI menghasilkan output yang tidak betul atau tidak dijangka. Sebagai contoh, penyerang mungkin menambah hingar atau kabur pada imej yang tidak dapat dilihat oleh manusia tetapi menyebabkannya disalahklasifikasikan oleh model AI. Sebagai contoh, lihat imej di bawah, seekor kucing, yang telah diubah suai sedikit untuk menipu pengkompil InceptionV3 supaya menyatakan bahawa ia adalah "guacamole".


kredit:
Anish Athalye , ahli kumpulan penyelidikan labsix, yang fokusnya adalah pada serangan musuh

Perubahannya tidak begitu ketara. Bagi seorang manusia, perubahan tidak akan mungkin berlaku sama sekali, seperti yang terbukti daripada contoh di atas. Pembaca manusia tidak akan menghadapi masalah untuk mengkategorikan imej di sebelah kanan sebagai kucing tabby. Tetapi membuat perubahan kecil pada imej, video, teks atau audio boleh memperdaya sistem AI untuk mengenali perkara yang tiada atau mengabaikan perkara yang ada, seperti tanda berhenti.

Jenis serangan ini menimbulkan ancaman serius kepada sistem AI yang bergantung pada ramalan yang tepat dan boleh dipercayai, seperti kereta pandu sendiri, pengesahan biometrik, diagnostik perubatan, penapisan kandungan dan sebagainya.

Betapa bahayanya halusinasi AI?

Halusinasi AI boleh menjadi sangat berbahaya, terutamanya bergantung pada jenis sistem AI yang mengalaminya. Mana-mana kenderaan pandu sendiri atau pembantu AI yang mampu membelanjakan wang pengguna atau sistem AI untuk menapis kandungan yang tidak menyenangkan dalam talian mestilah boleh dipercayai sepenuhnya.

Tetapi fakta yang tidak dapat dipertikaikan pada masa ini ialah sistem AI tidak boleh dipercayai sepenuhnya tetapi, sebenarnya, terdedah kepada halusinasi. Malah model AI yang paling maju hari ini tidak terlepas daripadanya.

Sebagai contoh, satu rancangan serangan telah menipu perkhidmatan pengkomputeran awan Google untuk mengejar pistol seperti helikopter. Bolehkah anda bayangkan jika, pada masa ini, AI bertanggungjawab untuk memastikan bahawa orang itu tidak bersenjata?

Satu lagi serangan bermusuhan menunjukkan bagaimana menambahkan imej kecil pada tanda berhenti menjadikannya tidak kelihatan kepada sistem AI. Pada asasnya, ini bermakna kereta pandu sendiri boleh dibuat untuk berhalusinasi bahawa tiada tanda berhenti di jalan raya. Berapa banyak kemalangan boleh berlaku jika kereta pandu sendiri menjadi kenyataan hari ini? Itulah sebabnya mereka tidak sekarang.

Walaupun kita mengambil kira rancangan sembang yang popular pada masa ini, halusinasi boleh menghasilkan output yang salah. Tetapi orang yang tidak mengetahui bahawa AI chatbots terdedah kepada halusinasi dan tidak mengesahkan output yang dihasilkan oleh AI bots, secara tidak sengaja boleh menyebarkan maklumat yang salah. Kita tidak perlu menjelaskan betapa bahayanya ini.

Tambahan pula, serangan bermusuhan adalah kebimbangan yang mendesak. Setakat ini, mereka hanya ditunjukkan di makmal. Tetapi jika sistem AI kritikal misi menghadapi mereka di dunia nyata, akibatnya boleh memudaratkan.

Realitinya adalah lebih mudah untuk melindungi model bahasa semula jadi. (Kami tidak mengatakan ia mudah; ia masih terbukti sangat sukar.) Walau bagaimanapun, melindungi sistem penglihatan komputer adalah senario yang sama sekali berbeza. Ia lebih sukar terutamanya kerana terdapat banyak variasi dalam dunia semula jadi, dan imej mengandungi sejumlah besar piksel.

Untuk menyelesaikan masalah ini, kita mungkin memerlukan program AI yang mempunyai pandangan yang lebih manusiawi tentang dunia yang boleh menjadikannya kurang terdedah kepada halusinasi. Semasa penyelidikan sedang dilakukan, kita masih jauh dari kecerdasan buatan yang boleh cuba mengambil petunjuk dari alam semula jadi dan mengelakkan masalah halusinasi. Buat masa ini, mereka adalah realiti yang pahit.

Secara umum, halusinasi AI adalah fenomena kompleks yang boleh timbul daripada gabungan faktor. Penyelidik sedang giat membangunkan kaedah untuk mengesan dan mengurangkan halusinasi AI untuk meningkatkan ketepatan dan kebolehpercayaan sistem AI. Tetapi anda harus sedar tentang mereka apabila berinteraksi dengan mana-mana sistem AI.

Jawatan yang berkaitan
Terbitkan artikel di

Tambah komen