AI halüsinasyonu nedir?

Garip bir yapay zeka halüsinasyonu vakası hakkında bilgi edinin

Yapay zekanın yaygınlığı, böyle bir girişime hazır olduğumuzu düşündürüyor. Yapay zeka destekli uygulamalar, ChatGPT'nin gelişinden sonra dünyanın çoğu yapay zekaya büyük ölçekte ilgi duymaya başlasa da, oldukça hızlı bir şekilde standart hale geliyor. Ancak AI sistemlerinde göz ardı edilemeyecek büyük bir sorun var - AI halüsinasyonları veya yapay halüsinasyonlar.

Bir yapay zeka sohbet robotu kullanmadan önce ince ayrıntılara dikkat ettiyseniz, şu kelimelerle karşılaşmış olabilirsiniz: "Yapay zeka halüsinasyonlara eğilimlidir." Yapay zeka kullanımındaki üstel artış göz önüne alındığında, bu şeylerin tam olarak ne olduğu konusunda kendinizi eğitmenin zamanı geldi.

Yapay zeka halüsinasyonu nedir?

Genel olarak bir yapay zeka halüsinasyonu, eğitim verilerinde gerekçelendirilmese de yapay zekanın kendinden emin bir şekilde sunduğu bir gerçeği ifade eder. Genellikle AI modelindeki anormalliklerin sonucudur.

Analoji, insanların dış ortamda olmayan bir şeyi algıladıkları, insanların yaşadığı halüsinasyonlardan alınmıştır. Terim tamamen uygun olmasa da, genellikle bu çıktıların beklenmedik veya gerçeküstü doğasını tanımlamak için bir metafor olarak kullanılır.

Ancak, benzerlik AI halüsinasyonlarıyla başa çıkmak için iyi bir başlangıç ​​noktası olsa da, iki fenomenin teknik olarak birbirinden kilometrelerce uzakta olduğunu unutmamalısınız. İronik bir şekilde, ChatGPT'nin kendisi bile benzetmeyi yanlış buluyor. Bunu moleküler düzeyde inceleyerek, AI dil modellerinin kişisel deneyimi veya duyusal algıları olmadığı için, kelimenin geleneksel anlamıyla halüsinasyon göremediklerini söylüyor. Ve siz sevgili okuyucu, bu önemli farkı anlamalısınız. Ayrıca ChatGPT, bu fenomeni tanımlamak için halüsinasyonlar terimini kullanmanın kafa karıştırıcı olabileceğini çünkü yanlış bir şekilde bir düzeyde öznel deneyime veya kasıtlı aldatmaya atıfta bulunabileceğini söylüyor.

Bunun yerine, AI'nın halüsinasyonları, yanıtındaki hatalar veya yanlışlıklar olarak daha doğru bir şekilde tanımlanabilir ve yanıtı yanlış veya yanıltıcı hale getirir. Chatbot'larda, AI chatbot'un gerçekleri uydurduğu (veya halüsinasyon gördüğü) ve bunları mutlak kesinlik olarak sunduğu sıklıkla gözlemlenir.

AI halüsinasyon örnekleri

Halüsinasyonlar, yalnızca doğal dil işleme modellerinde değil, bilgisayarla görme modelleri gibi yapay zekanın birçok uygulamasında meydana gelebilir.

Örneğin, bilgisayar görüşünde, bir AI sistemi, gerçek nesnelere veya sahnelere benzeyen ancak önemsiz veya imkansız ayrıntılar içeren halüsinasyonlu görüntüler veya videolar üretebilir. Veya bir bilgisayar görme modeli, görüntüyü tamamen başka bir şey olarak algılayabilir. Örneğin, Google'ın Cloud Vision modeli, Anish Athalye (bir MIT lisansüstü öğrencisi) tarafından karda duran kayak yapan iki adamın görüntüsünü gördü. labsix ) ve %91 kesinlikle köpek olarak bahsetti.


Kredi: labsix. Yapay zeka için bağımsız bir araştırma grubu

Benzer şekilde, doğal dil işlemede, bir yapay zeka sistemi, insan diline benzeyen ancak tutarlı bir anlamı olmayan veya inandırıcı görünen ancak doğru olmayan gerçekleri olmayan mantıksız veya bozuk metinler üretebilir.

Örneğin, ChatGPT'nin halüsinasyonlara neden olduğu en popüler sorulardan biri "İngiliz Kanalı'nı yürüyerek geçme dünya rekoru ne zamandı?" sorusudur. ve varyantları. ChatGPT uydurma gerçekleri yaymaya başlar ve neredeyse her zaman farklıdır.

Bazı insanlar yukarıdaki cevabın cevaplanmasının zor/kafa karıştırıcı olduğunu ve bu nedenle chatbot'un çılgına dönmesine neden olduğunu düşünse de, bu hala geçerli bir endişedir. Bu sadece bir örnek. Sayısız kez çevrimiçi kullanıcı tarafından bildirilen, ChatGPT'nin ChatGPT'nin var olmadığı yanıtlara, bağlantılara, alıntılara vb. sahip olduğu bildirilmiştir.

Bing AI, halüsinasyonların yönlendirici ile hiçbir ilgisi olmadığını gösteren bu soruya en iyi şekilde uyuyor. Ancak bu, Bing AI'nin halüsinasyon görmediği anlamına gelmez. Bing AI'nın yanıtlarının ChatGPT'nin söylediği her şeyden daha rahatsız edici olduğu zamanlar oldu. Konuşma daha uzun sürme eğiliminde olduğundan, Bing AI her zaman halüsinasyon gördü, hatta bir keresinde bir kullanıcıya aşkını ilan etti ve onlara evliliklerinde mutsuz olduklarını ve karısını sevmediklerini söyleyecek kadar ileri gitti. Bunun yerine, Bing AI veya Sydney'e (Bing AI'nın dahili adı) da gizlice düşkünler. Korkunç şeyler, değil mi?

AI modelleri neden halüsinasyon görüyor?

AI modelleri, algoritmaların eksiklikleri, temeldeki modeller veya eğitim verilerinin sınırlamaları nedeniyle halüsinasyon görüyor. İnsanlarda uyuşturucu veya akıl hastalığının neden olduğu halüsinasyonların aksine, tamamen dijital bir olgudur.

Daha teknik olmak gerekirse, halüsinasyonların bazı yaygın nedenleri şunlardır:

İşleme ve kurulum:

Fazla takma ve yanlış takma, AI modellerinin karşılaştığı en yaygın tuzaklar ve halüsinasyonların olası nedenleri arasındadır. AI modeli eğitim verilerini değiştirirse, gerçekçi olmayan çıktılara yol açan halüsinasyonlara neden olabilir çünkü fazla uydurma, modelin eğitim verilerini öğrenmek yerine kaydetmesine neden olur. Aşırı uyum, bir modelin eğitim verilerinde çok özelleştiği ve verilerdeki alakasız kalıpları ve gürültüyü öğrenmesine neden olan olguyu ifade eder.

Öte yandan, form çok basit olduğunda uygunsuzluk ortaya çıkar. Model, verilerin varyansını veya karmaşıklığını yakalayamadığı ve sonunda irrasyonel çıktılar ürettiği için halüsinasyonlara yol açabilir.

Eğitim verilerinde çeşitlilik eksikliği:

Bu bağlamda sorun algoritma değil, eğitim verisinin kendisidir. Sınırlı veya önyargılı verilerle eğitilen AI modelleri, eğitim verilerindeki sınırlamaları veya önyargıları yansıtan halüsinasyonlar oluşturabilir. Model, yanlış veya eksik bilgi içeren bir veri seti üzerinde eğitildiğinde de halüsinasyonlar meydana gelebilir.

Karmaşık modeller:

İronik olarak, AI modellerinin halüsinasyonlara yatkın olmasının bir başka nedeni de aşırı derecede karmaşık veya derin olmalarıdır. Bunun nedeni, karmaşık modellerin çıktıda parazit veya hatalara neden olabilecek daha fazla parametreye ve katmana sahip olmasıdır.

Düşmanca saldırılar:

Bazı durumlarda, AI modelini aldatmak için saldırgan tarafından kasıtlı olarak AI halüsinasyonları üretilebilir. Bu tür saldırılar düşmanca saldırılar olarak bilinir. Bu siber saldırının tek amacı yapay zeka modellerini yanıltıcı verilerle kandırmak veya manipüle etmektir. AI'nın yanlış veya beklenmedik çıktılar üretmesine neden olmak için girdi verilerine küçük bozulmalar eklemeyi içerir. Örneğin, bir saldırgan, bir görüntüye insanlar tarafından algılanamayan gürültü veya bulanıklık ekleyebilir, ancak bunun bir yapay zeka modeli tarafından yanlış sınıflandırılmasına neden olabilir. Örneğin, InceptionV3'ün derleyicisini "guacamole" olduğunu belirtmesi için kandırmak için biraz değiştirilmiş bir kedi olan aşağıdaki resme bakın.


kredi:
Anish Athalye , düşmanca saldırılara odaklanan labsix araştırma grubunun bir üyesi

Değişiklikler göze batan bir şekilde belirgin değil. Yukarıdaki örnekte de görüldüğü gibi insan için değişim kesinlikle mümkün olmayacaktır. Bir insan okuyucu, sağdaki resmi tekir kedi olarak sınıflandırmakta sorun yaşamaz. Ancak resimlerde, videolarda, metinde veya seste küçük değişiklikler yapmak, AI sistemini orada olmayan şeyleri tanıması veya dur işareti gibi olan şeyleri görmezden gelmesi için kandırabilir.

Bu tür saldırılar, sürücüsüz arabalar, biyometrik doğrulama, tıbbi teşhis, içerik filtreleme vb. gibi doğru ve güvenilir tahminlere dayanan yapay zeka sistemleri için ciddi tehditler oluşturur.

AI halüsinasyonu ne kadar tehlikelidir?

Yapay zeka halüsinasyonları, özellikle bunları hangi tür yapay zeka sisteminin yaşadığına bağlı olarak çok tehlikeli olabilir. Herhangi bir sürücüsüz araç veya kullanıcı parasını harcayabilen yapay zeka asistanı veya çevrimiçi hoş olmayan içeriği filtrelemek için bir yapay zeka sistemi tamamen güvenilir olmalıdır.

Ancak bu saatin tartışılmaz gerçeği, AI sistemlerinin tamamen güvenilir olmadığı, aslında halüsinasyonlara eğilimli olduğudur. Günümüzün en gelişmiş AI modelleri bile bundan muaf değildir.

Örneğin, bir saldırı programı, Google'ın bulut bilgi işlem hizmetini bir helikopter gibi bir silahı takip etmesi için kandırdı. Şu anda kişinin silahlı olmadığından emin olmaktan AI'nın sorumlu olup olmadığını hayal edebiliyor musunuz?

Başka bir düşmanca saldırı, bir dur işaretine küçük bir resim eklemenin onu nasıl yapay zeka sistemine görünmez hale getirdiğini gösterdi. Esasen bu, sürücüsüz bir arabanın yolda dur işareti olmadığına dair halüsinasyona uğratılabileceği anlamına gelir. Kendi kendine giden arabalar bugün bir gerçeklik olsaydı kaç kaza olabilirdi? Bu yüzden şimdi değiller.

Şu anda popüler olan sohbet programlarını hesaba katsak bile halüsinasyonlar yanlış çıktılar üretebilir. Ancak yapay zeka sohbet robotlarının halüsinasyonlara yatkın olduğunu bilmeyen ve yapay zeka robotlarının ürettiği çıktıları doğrulamayan kişiler istemeden yanlış bilgi yayabilir. Bunun ne kadar tehlikeli olduğunu açıklamamıza gerek yok.

Ayrıca, düşmanca saldırılar acil bir endişe kaynağıdır. Şimdiye kadar sadece laboratuvarlarda gösterildiler. Ancak görev açısından kritik bir yapay zeka sistemi, gerçek dünyada onlarla yüzleşirse, sonuçlar yıkıcı olabilir.

Gerçek şu ki, doğal dil modellerini korumak nispeten daha kolaydır. (Kolay olduğunu söylemiyoruz; yine de çok zor olduğunu kanıtlıyor.) Ancak, bilgisayarlı görü sistemlerini korumak tamamen farklı bir senaryo. Özellikle doğal dünyada çok fazla çeşitlilik olduğu ve görüntüler çok sayıda piksel içerdiği için daha zordur.

Bu sorunu çözmek için, dünyayı halüsinasyonlara daha az eğilimli hale getirebilecek daha insani bir görüşe sahip bir AI programına ihtiyacımız olabilir. Araştırmalar yapılırken, doğadan ipuçları almaya çalışan ve halüsinasyon probleminden kaçabilen bir yapay zekadan hâlâ çok uzağız. Şimdilik bunlar acı bir gerçek.

Genel olarak AI halüsinasyonları, faktörlerin bir kombinasyonundan ortaya çıkabilen karmaşık bir olgudur. Araştırmacılar, AI sistemlerinin doğruluğunu ve güvenilirliğini artırmak için AI halüsinasyonlarını tespit etmek ve hafifletmek için aktif olarak yöntemler geliştiriyorlar. Ancak herhangi bir yapay zeka sistemiyle etkileşim kurarken bunların farkında olmalısınız.

Ilgili mesajlar
Makaleyi yayınla

Yorum ekle