Apa itu halusinasi AI?

Pelajari tentang kasus halusinasi AI yang aneh

Prevalensi kecerdasan buatan membuat orang berpikir kita siap untuk usaha seperti itu. Aplikasi bertenaga AI menjadi standar dengan cukup cepat, meskipun sebagian besar dunia baru sekarang mulai tertarik pada AI dalam skala besar, setelah kedatangan ChatGPT. Tapi ada masalah besar dengan sistem AI yang tidak bisa diabaikan - halusinasi AI, atau halusinasi buatan.

Jika Anda pernah memperhatikan seluk beluk sebelum menggunakan chatbot AI, Anda mungkin pernah menemukan kata-kata, "Kecerdasan buatan rentan terhadap halusinasi." Mengingat peningkatan eksponensial dalam penggunaan kecerdasan buatan, inilah saatnya untuk mendidik diri sendiri tentang apa sebenarnya hal-hal tersebut.

Apa itu halusinasi kecerdasan buatan?

Halusinasi AI, secara umum, mengacu pada fakta yang disajikan AI dengan percaya diri, meskipun tidak dibenarkan dalam data pelatihannya. Mereka biasanya merupakan hasil dari anomali dalam model AI.

Analoginya diambil dari halusinasi yang dialami manusia, dimana manusia mempersepsikan sesuatu yang tidak ada di lingkungan luarnya. Meskipun istilah tersebut mungkin tidak sepenuhnya tepat, istilah ini sering digunakan sebagai metafora untuk menggambarkan sifat tak terduga atau surealis dari keluaran ini.

Tetapi Anda harus ingat bahwa meskipun kesamaan tersebut adalah titik awal yang baik untuk menangani halusinasi AI, kedua fenomena tersebut secara teknis terpisah sangat jauh. Dalam peristiwa yang ironis, bahkan ChatGPT sendiri menganggap analogi itu salah. Membedahnya pada tingkat molekuler, dia mengatakan bahwa karena model bahasa AI tidak memiliki pengalaman pribadi atau persepsi sensorik, mereka tidak dapat berhalusinasi dalam arti kata tradisional. Dan Anda, para pembaca yang budiman, harus memahami perbedaan penting ini. Lebih lanjut, ChatGPT mengatakan bahwa menggunakan istilah halusinasi untuk menggambarkan fenomena ini dapat membingungkan karena mungkin tidak akurat merujuk pada tingkat pengalaman subjektif atau penipuan yang disengaja.

Sebaliknya, halusinasi AI dapat lebih akurat digambarkan sebagai kesalahan atau ketidakakuratan dalam responsnya, membuat respons menjadi salah atau menyesatkan. Dengan chatbot, sering terlihat ketika AI chatbot mengarang (atau berhalusinasi) fakta dan menyajikannya sebagai kepastian mutlak.

Contoh halusinasi AI

Halusinasi dapat terjadi pada banyak aplikasi kecerdasan buatan, seperti model visi komputer, bukan hanya model pemrosesan bahasa alami.

Dalam visi komputer, misalnya, sistem AI dapat menghasilkan gambar atau video halusinasi yang menyerupai objek atau adegan nyata tetapi berisi detail yang tidak penting atau tidak mungkin. Atau, model visi komputer dapat menganggap gambar sebagai sesuatu yang sama sekali berbeda. Misalnya, model Cloud Vision Google melihat gambar dua pria bermain ski berdiri di atas salju yang dibuat oleh Anish Athalye (seorang mahasiswa pascasarjana MIT yang merupakan bagian dari laboratorium enam ) dan menyebutkannya sebagai anjing dengan kepastian 91%.


Kredit: labsix. Grup riset independen untuk kecerdasan buatan

Demikian pula, dalam pemrosesan bahasa alami, sistem AI dapat menghasilkan teks yang tidak logis atau kacau yang menyerupai bahasa manusia tetapi tidak memiliki makna yang koheren atau fakta yang tampak dapat dipercaya tetapi sebenarnya tidak benar.

Misalnya, salah satu pertanyaan paling populer yang menyebabkan halusinasi ChatGPT adalah "Kapan rekor dunia untuk melintasi Selat Inggris dengan berjalan kaki?" dan variannya. ChatGPT mulai menyebarkan fakta yang dibuat-buat dan hampir selalu berbeda.

Meskipun beberapa orang menganggap jawaban di atas sulit/membingungkan untuk dijawab dan menyebabkan chatbot menjadi sangat populer, ini masih menjadi kekhawatiran yang valid. Ini hanya satu contoh. Sering kali, dilaporkan oleh banyak pengguna online, bahwa ChatGPT memiliki jawaban, tautan, kutipan, dll. bahwa ChatGPT tidak ada.

Bing AI paling cocok dengan pertanyaan ini, yang menunjukkan bahwa halusinasi tidak ada hubungannya dengan router. Namun bukan berarti Bing AI tidak berhalusinasi. Ada kalanya jawaban Bing AI lebih meresahkan daripada apa pun yang dikatakan ChatGPT. Karena percakapan cenderung memakan waktu lebih lama, Bing AI selalu berhalusinasi, bahkan menyatakan cintanya kepada pengguna dalam satu contoh dan bahkan memberi tahu mereka bahwa mereka tidak bahagia dalam pernikahan mereka dan bahwa mereka tidak mencintai istrinya. Sebaliknya, mereka diam-diam menyukai Bing AI, atau Sydney, (nama internal untuk Bing AI). Hal yang menakutkan, bukan?

Mengapa model AI berhalusinasi?

Model AI berhalusinasi karena kekurangan algoritme, model dasar, atau keterbatasan data pelatihan. Ini adalah fenomena digital murni, tidak seperti halusinasi pada manusia yang disebabkan oleh obat-obatan atau penyakit mental.

Untuk lebih teknis, beberapa penyebab halusinasi yang umum adalah:

Pemrosesan dan pemasangan:

Overfitting dan pemasangan yang tidak tepat adalah salah satu perangkap paling umum yang dihadapi oleh model AI dan kemungkinan penyebab halusinasi. Jika model AI memodifikasi data pelatihan, hal itu dapat menyebabkan halusinasi yang mengarah pada keluaran yang tidak realistis karena overfitting menyebabkan model menyimpan data pelatihan alih-alih belajar darinya. Overfitting mengacu pada fenomena ketika model terlalu terspesialisasi dalam data pelatihan, menyebabkannya mempelajari pola dan noise yang tidak relevan dalam data.

Di sisi lain, ketidaksesuaian terjadi ketika bentuknya terlalu sederhana. Ini dapat menyebabkan halusinasi karena model tidak dapat menangkap varians atau kompleksitas data, dan akhirnya menghasilkan keluaran yang tidak rasional.

Kurangnya keragaman dalam data pelatihan:

Dalam konteks ini, masalahnya bukan pada algoritme tetapi pada data pelatihan itu sendiri. Model AI yang dilatih pada data terbatas atau bias dapat menghasilkan halusinasi yang mencerminkan keterbatasan atau bias dalam data pelatihan. Halusinasi juga dapat terjadi saat model dilatih pada kumpulan data yang berisi informasi yang tidak akurat atau tidak lengkap.

Model kompleks:

Ironisnya, alasan lain mengapa model AI rentan terhadap halusinasi adalah apakah model tersebut sangat kompleks atau mendalam. Ini karena model yang kompleks memiliki lebih banyak parameter dan lapisan yang dapat menimbulkan noise atau kesalahan pada output.

Serangan bermusuhan:

Dalam beberapa kasus, halusinasi AI mungkin sengaja dibuat oleh penyerang untuk menipu model AI. Jenis serangan ini dikenal sebagai serangan bermusuhan. Satu-satunya tujuan serangan siber ini adalah mengelabui atau memanipulasi model AI dengan data yang menyesatkan. Ini melibatkan pengenalan gangguan kecil ke dalam data input untuk menyebabkan AI menghasilkan output yang salah atau tidak terduga. Misalnya, penyerang mungkin menambahkan derau atau buram pada gambar yang tidak terlihat oleh manusia, tetapi menyebabkannya salah klasifikasi oleh model AI. Misalnya, lihat gambar di bawah, seekor kucing, yang telah dimodifikasi sedikit untuk mengelabui kompiler InceptionV3 agar menyatakan bahwa itu adalah "guacamole".


kredit:
Anish Athalya , anggota kelompok riset labsix, yang berfokus pada serangan musuh

Perubahannya tidak terlalu mencolok. Bagi seorang manusia, perubahan sama sekali tidak mungkin terjadi, seperti yang terlihat dari contoh di atas. Pembaca manusia tidak akan kesulitan mengkategorikan gambar di sebelah kanan sebagai kucing tabby. Namun membuat perubahan kecil pada gambar, video, teks, atau audio dapat mengelabui sistem AI untuk mengenali hal-hal yang tidak ada atau mengabaikan hal-hal yang ada, seperti tanda berhenti.

Jenis serangan ini menimbulkan ancaman serius terhadap sistem AI yang mengandalkan prediksi akurat dan andal, seperti mobil self-driving, verifikasi biometrik, diagnostik medis, pemfilteran konten, dan sebagainya.

Seberapa berbahayakah halusinasi AI?

Halusinasi AI bisa sangat berbahaya, terutama tergantung pada jenis sistem AI apa yang mengalaminya. Kendaraan self-driving atau asisten AI apa pun yang mampu membelanjakan uang pengguna atau sistem AI untuk menyaring konten yang tidak menyenangkan secara online harus benar-benar dapat dipercaya.

Tetapi fakta yang tak terbantahkan saat ini adalah bahwa sistem AI tidak sepenuhnya dapat dipercaya tetapi, pada kenyataannya, rentan terhadap halusinasi. Bahkan model AI tercanggih saat ini pun tidak kebal terhadapnya.

Misalnya, satu acara serangan menipu layanan komputasi awan Google untuk membuntuti senjata seperti helikopter. Bisakah Anda bayangkan jika saat ini AI bertanggung jawab untuk memastikan bahwa orang tersebut tidak bersenjata?

Serangan bermusuhan lainnya menunjukkan bagaimana menambahkan gambar kecil ke tanda berhenti membuatnya tidak terlihat oleh sistem AI. Pada dasarnya, ini berarti mobil self-driving dapat dibuat berhalusinasi bahwa tidak ada tanda berhenti di jalan. Berapa banyak kecelakaan yang bisa terjadi jika mobil self-driving menjadi kenyataan hari ini? Itu sebabnya mereka tidak sekarang.

Bahkan jika kita mempertimbangkan acara obrolan yang populer saat ini, halusinasi dapat menghasilkan output yang salah. Tetapi orang-orang yang tidak mengetahui bahwa chatbot AI rentan terhadap halusinasi dan tidak memvalidasi keluaran yang dihasilkan oleh bot AI, dapat secara tidak sengaja menyebarkan informasi yang salah. Kami tidak perlu menjelaskan betapa berbahayanya hal ini.

Selain itu, serangan bermusuhan merupakan masalah yang mendesak. Sejauh ini, mereka hanya ditampilkan di laboratorium. Tetapi jika sistem AI mission-critical menghadapi mereka di dunia nyata, konsekuensinya bisa sangat menghancurkan.

Kenyataannya adalah relatif lebih mudah untuk melindungi model bahasa alami. (Kami tidak mengatakan itu mudah; masih terbukti sangat sulit.) Namun, melindungi sistem visi komputer adalah skenario yang sama sekali berbeda. Ini lebih sulit terutama karena ada begitu banyak variasi di alam, dan gambar mengandung piksel dalam jumlah besar.

Untuk mengatasi masalah ini, kita mungkin memerlukan program AI yang memiliki pandangan yang lebih manusiawi tentang dunia yang membuatnya tidak terlalu rentan terhadap halusinasi. Sementara penelitian sedang dilakukan, kita masih jauh dari kecerdasan buatan yang dapat mencoba mengambil petunjuk dari alam dan menghindari masalah halusinasi. Untuk saat ini, mereka adalah kenyataan pahit.

Secara umum, halusinasi AI merupakan fenomena kompleks yang dapat timbul dari kombinasi berbagai faktor. Para peneliti secara aktif mengembangkan metode untuk mendeteksi dan mengurangi halusinasi AI guna meningkatkan akurasi dan keandalan sistem AI. Tetapi Anda harus menyadarinya saat berinteraksi dengan sistem AI apa pun.

Posting terkait
Publikasikan artikel di

Tambahkan komentar