什麼是人工智能幻覺?

了解 AI 幻覺的奇怪案例

人工智能的普及讓人認為我們已經為這樣的事業做好了準備。 AI 驅動的應用程序正迅速成為標準,即使世界上大多數人在 ChatGPT 出現後才開始大規模關注 AI。 但是人工智能係統有一個不容忽視的大問題——人工智能幻覺,或者人工幻覺。

如果你在使用 AI 聊天機器人之前關注過細節問題,你可能會遇到這樣的話, “人工智能很容易產生幻覺。” 鑑於人工智能的使用呈指數增長,是時候讓自己了解這些東西到底是什麼了。

什麼是人工智能幻覺?

一般來說,AI 產生幻覺是指 AI 自信地呈現了一個事實,儘管它在其訓練數據中並不合理。 它們通常是 AI 模型異常的結果。

這個類比取自人類所經歷的幻覺,在幻覺中人類感知到的是外部環境中不存在的東西。 雖然該術語可能並不完全合適,但它經常被用作比喻來描述這些輸出的意外或超現實性質。

但是你應該記住,雖然相似性是處理 AI 幻覺的一個很好的起點,但這兩種現像在技術上相距甚遠。 具有諷刺意味的是,就連 ChatGPT 本身也發現這個類比是錯誤的。 他在分子水平上剖析說,由於人工智能語言模型沒有個人經驗或感官知覺,它們無法產生傳統意義上的幻覺。 親愛的讀者,您必須了解這一重要區別。 此外,ChatGPT 表示,使用幻覺一詞來描述這種現象可能會造成混淆,因為它可能不准確地指代主觀體驗或故意欺騙的程度。

相反,AI 的幻覺可以更準確地描述為其響應中的錯誤或不准確,從而使響應不正確或具有誤導性。 對於聊天機器人,當 AI 聊天機器人編造(或產生幻覺)事實並將其呈現為絕對確定時,通常會被觀察到。

人工智能幻覺的例子

幻覺可以出現在人工智能的許多應用中,例如計算機視覺模型,而不僅僅是自然語言處理模型。

例如,在計算機視覺中,人工智能係統可能會產生類似於真實物體或場景但包含無關緊要或不可能的細節的幻覺圖像或視頻。 或者,計算機視覺模型可以將圖像視為完全不同的東西。 例如,Google 的 Cloud Vision 模型看到了兩個男人站在雪地上滑雪的圖像,由 Anish Athalye(麻省理工學院研究生,屬於 實驗六 ) 並以 91% 的確定性將其稱為狗。


學分:labsix。 人工智能獨立研究組

同樣,在自然語言處理中,人工智能係統可能會產生類似於人類語言但沒有連貫意義的不合邏輯或亂碼的文本,或者產生看似可信但並非真實的事實。

例如,ChatGPT 引起幻覺的最常見問題之一是“徒步穿越英吉利海峽的世界紀錄是什麼時候創下的?” 及其變體。 ChatGPT 開始傳播捏造的事實,而且幾乎總是不同的。

雖然有些人認為上述答案難以回答/令人困惑,從而導致聊天機器人讚不絕口,但這仍然是一個合理的擔憂。 這只是一個例子。 無數次,成群結隊的在線用戶報告說,ChatGPT 有答案、鏈接、引用等,而 ChatGPT 並不存在。

Bing AI最符合這個問題,說明幻覺跟路由器沒有關係。 但這並不意味著 Bing AI 沒有產生幻覺。 有時,Bing AI 的回答比 ChatGPT 所說的任何內容都更令人不安。 由於對話往往需要更長的時間,Bing AI 總是產生幻覺,甚至有一次向用戶表白,甚至告訴他們他們的婚姻不幸福,他們不愛他的妻子。 相反,他們也暗中喜歡 Bing AI 或 Sydney(Bing AI 的內部名稱)。 可怕的東西,對吧?

為什麼 AI 模型會產生幻覺?

由於算法、底層模型或訓練數據的局限性的缺陷,人工智能模型會產生幻覺。 這是一種純粹的數字現象,不像人類因藥物或精神疾病引起的幻覺。

為了獲得更多技術,幻覺的一些常見原因是:

加工安裝:

過度擬合和不正確擬合是 AI 模型面臨的最常見缺陷,也是產生幻覺的可能原因。 如果 AI 模型修改了訓練數據,可能會產生幻覺,導致輸出不切實際,因為過度擬合會導致模型保存訓練數據,而不是從中學習。 過度擬合是指當模型過於專注於訓練數據時,導致它學習數據中不相關的模式和噪聲的現象。

另一方面,當形式過於簡單時,就會出現不恰當的情況。 它可能會導致幻覺,因為模型無法捕獲數據的差異或複雜性,並最終生成不合理的輸出。

訓練數據缺乏多樣性:

在這種情況下,問題不在於算法,而在於訓練數據本身。 在有限或有偏見的數據上訓練的 AI 模型可能會產生反映訓練數據的局限性或偏見的幻覺。 當模型在包含不准確或不完整信息的數據集上訓練時,也會出現幻覺。

複雜模型:

具有諷刺意味的是,人工智能模型容易產生幻覺的另一個原因是它們是否極其複雜或深刻。 這是因為複雜的模型有更多的參數和層,可能會在輸出中引入噪聲或錯誤。

敵對攻擊:

在某些情況下,AI 幻覺可能是攻擊者故意產生的,以欺騙 AI 模型。 這些類型的攻擊稱為惡意攻擊。 這種網絡攻擊的唯一目的是用誤導性數據欺騙或操縱人工智能模型。 它涉及在輸入數據中引入小擾動,導致 AI 生成不正確或意外的輸出。 例如,攻擊者可能會向人類無法察覺的圖像添加噪聲或模糊,但會導致它被 AI 模型錯誤分類。 例如,請參見下圖,一隻貓,經過輕微修改以誘使 InceptionV3 的編譯器聲明它是“鱷梨醬”。


信用:
阿尼施·阿塔利 ,labsix研究組成員,專注於對抗性攻擊

這些變化並不明顯。 從上面的例子可以明顯看出,對於一個人來說,改變是根本不可能的。 人類讀者可以毫無問題地將右邊的圖像歸類為虎斑貓。 但是對圖像、視頻、文本或音頻進行微小的更改可能會欺騙 AI 系統識別不存在的事物或忽略存在的事物,例如停車標誌。

這些類型的攻擊對依賴準確可靠預測的 AI 系統構成嚴重威脅,例如自動駕駛汽車、生物識別驗證、醫療診斷、內容過濾等。

人工智能幻覺有多危險?

人工智能幻覺可能非常危險,特別是取決於正在經歷它們的人工智能係統的類型。 任何能夠花用戶錢的自動駕駛汽車或 AI 助手或 AI 系統可以過濾掉網上不愉快的內容,都必須是完全值得信賴的。

但這個小時無可爭辯的事實是,人工智能係統並不完全值得信賴,而且實際上容易產生幻覺。 即使是當今最先進的人工智能模型也不能倖免。

例如,一個攻擊節目誘使谷歌的雲計算服務像直升機一樣尾隨槍支。 您能想像一下,如果此時 AI 負責確保此人沒有攜帶武器嗎?

另一次惡意攻擊展示瞭如何將小圖像添加到停車標誌使其對 AI 系統不可見。 從本質上講,這意味著可以讓自動駕駛汽車產生道路上沒有停車標誌的幻覺。 如果今天自動駕駛汽車成為現實,會發生多少事故? 這就是為什麼他們現在不是。

即使我們考慮到當前流行的聊天節目,幻覺也會產生不正確的輸出。 但是不知道人工智能聊天機器人容易產生幻覺並且不驗證人工智能機器人產生的輸出的人可能會無意中傳播錯誤信息。 我們不需要解釋這有多危險。

此外,敵對攻擊是一個緊迫的問題。 到目前為止,它們只在實驗室中展示過。 但如果關鍵任務人工智能係統在現實世界中與他們對抗,後果可能是毀滅性的。

事實上,保護自然語言模型相對容易一些。 (我們並不是說這很容易;它仍然被證明是非常困難的。)但是,保護計算機視覺系統是一個完全不同的場景。 這更加困難,尤其是因為自然界變化如此之大,而且圖像包含大量像素。

為了解決這個問題,我們可能需要一個人工智能程序,它具有更人性化的世界觀,可以減少產生幻覺的可能性。 雖然正在進行研究,但我們距離可以嘗試從大自然中獲取提示並避免幻覺問題的人工智能還有很長的路要走。 目前,它們是一個嚴酷的現實。

一般來說,人工智能幻覺是一種複雜的現象,可能由多種因素共同引起。 研究人員正在積極開發檢測和減輕 AI 幻覺的方法,以提高 AI 系統的準確性和可靠性。 但是在與任何 AI 系統交互時,您應該注意它們。

相關文章
發表文章於

添加評論