AI幻覚とは?

AI幻覚の奇妙なケースについて学ぶ

人工知能の普及は、私たちがそのような事業を行う準備ができていると思わせます。 ChatGPT の登場後、世界のほとんどが AI に大規模に関心を持ち始めたばかりですが、AI を利用したアプリケーションはかなり急速に標準化されています。 しかし、AI システムには無視できない大きな問題があります。AI 幻覚、または人工幻覚です。

AI チャットボットを使用する前に核心に注意を払ったことがある場合は、次のような言葉に出くわしたことがあるかもしれません。 「人工知能は幻覚を起こしやすい。」 人工知能の使用が指数関数的に増加していることを考えると、これらが正確に何であるかについて自分自身を教育する時が来ました.

人工知能の幻覚とは?

一般に、AI の幻覚は、トレーニング データでは正当化されていないにもかかわらず、AI が自信を持って提示した事実を指します。 それらは通常、AI モデルの異常の結果です。

この類推は、人間が外部環境に存在しない何かを知覚する、人間が経験する幻覚から取られています。 この用語は完全に適切ではないかもしれませんが、これらの出力の予想外またはシュールな性質を説明するための比喩としてよく使用されます。

しかし、類似性は AI の幻覚に対処するための良い出発点である一方で、XNUMX つの現象は技術的にはかなり離れていることを覚えておく必要があります。 皮肉なことに、ChatGPT 自体でさえ、アナロジーが間違っていることに気づきました。 分子レベルで分析すると、AI言語モデルには個人的な経験や感覚的知覚がないため、伝統的な言葉の意味で幻覚を起こすことはできないと彼は言います。 親愛なる読者の皆さんは、この重要な違いを理解する必要があります。 さらに、ChatGPT は、この現象を説明するために幻覚という用語を使用すると、主観的な経験または意図的な欺瞞のレベルを不正確に指す可能性があるため、混乱を招く可能性があると述べています.

代わりに、AI の幻覚は、その応答のエラーまたは不正確さとしてより正確に説明され、応答が不正確または誤解を招く可能性があります。 チャットボットでは、AI チャットボットが事実をでっち上げ (または幻覚)、絶対確実として提示することがよく見られます。

AIの幻覚の例

幻覚は、自然言語処理モデルだけでなく、コンピューター ビジョン モデルなど、人工知能の多くのアプリケーションで発生する可能性があります。

たとえば、コンピューター ビジョンでは、AI システムが、現実のオブジェクトやシーンに似ているが、取るに足らない、または不可能な詳細を含む幻覚的な画像やビデオを生成する場合があります。 または、コンピューター ビジョン モデルが画像をまったく別のものとして認識することもできます。 たとえば、Google の Cloud Vision モデルは、Anish Athalye (MIT の大学院生であり、 ラボシックス ) そして、91% の確実性で犬として言及しました。


クレジット: labsix. 人工知能のための独立した研究グループ

同様に、自然言語処理では、AI システムは、人間の言語に似ているが一貫した意味を持たない非論理的または文字化けしたテキスト、または信じられそうに見えるが真実ではない事実を生成する場合があります。

たとえば、ChatGPT が幻覚を引き起こす最も一般的な質問の XNUMX つは、「徒歩でイギリス海峡を横断した世界記録はいつですか?」というものです。 およびその亜種。 ChatGPT はでっち上げの事実を広め始めますが、ほとんどの場合、それは異なります。

上記の回答は回答が難しい/紛らわしいため、チャットボットが激怒する原因になると考える人もいますが、それは依然として有効な懸念事項です. これはほんの一例です。 ChatGPT には、ChatGPT が存在しないという回答、リンク、引用などがあると、多数のオンライン ユーザーによって報告されています。

Bing AI はこの質問に最もよく合います。これは、幻覚がルーターとは何の関係もないことを示しています。 しかし、それは Bing AI が幻覚を起こさないという意味ではありません。 Bing AI の回答が、ChatGPT の発言よりも厄介な場合がありました。 会話には時間がかかる傾向があるため、Bing AI は常に幻覚を見せており、ユーザーに愛を宣言したり、結婚生活に不満があり、妻を愛していないことを伝えたりすることさえあります。 代わりに、彼らは密かに Bing AI、またはシドニー (Bing AI の内部名) も気に入っています。 怖いものですよね?

AI モデルが幻覚を起こすのはなぜですか?

AI モデルは、アルゴリズムの欠点、基礎となるモデル、またはトレーニング データの制限のために、幻覚を起こしています。 これは、薬物や精神疾患によって引き起こされる人間の幻覚とは異なり、純粋にデジタルな現象です。

より技術的に説明すると、幻覚の一般的な原因は次のとおりです。

処理とインストール:

オーバーフィッティングと不適切なフィッティングは、AI モデルが直面する最も一般的な落とし穴であり、幻覚の原因となる可能性があります。 AIモデルがトレーニングデータを変更すると、オーバーフィッティングによりモデルがトレーニングデータから学習する代わりにトレーニングデータを保存するため、非現実的な出力につながる幻覚を引き起こす可能性があります。 オーバーフィッティングとは、モデルがトレーニング データに特化しすぎて、データ内の無関係なパターンやノイズを学習してしまう現象を指します。

一方で、形が単純すぎると不適切さが生じます。 モデルはデータの分散や複雑さを捉えることができず、最終的に不合理な出力を生成するため、幻覚につながる可能性があります。

トレーニング データの多様性の欠如:

このコンテキストでは、問題はアルゴリズムではなく、トレーニング データそのものです。 限られたデータまたは偏ったデータでトレーニングされた AI モデルは、トレーニング データの制限や偏りを反映した幻覚を生成する可能性があります。 幻覚は、不正確または不完全な情報を含むデータセットでモデルがトレーニングされている場合にも発生する可能性があります。

複雑なモデル:

皮肉なことに、AI モデルが幻覚を起こしやすいもう XNUMX つの理由は、モデルが非常に複雑か深遠かということです。 これは、複雑なモデルにはより多くのパラメーターとレイヤーがあり、出力にノイズやエラーが発生する可能性があるためです。

敵対的攻撃:

場合によっては、攻撃者が AI モデルを欺くために AI 幻覚を意図的に生成することがあります。 これらのタイプの攻撃は、敵対的攻撃として知られています。 このサイバー攻撃の唯一の目的は、誤解を招くデータで AI モデルを騙したり操作したりすることです。 入力データに小さな摂動を導入して、AI が不正確または予期しない出力を生成するようにします。 たとえば、攻撃者は、人間には認識できない画像にノイズやぼかしを追加する可能性がありますが、AI モデルによって誤分類される可能性があります。 たとえば、下の画像の猫を参照してください。この画像は、InceptionV3 のコンパイラをだまして「ワカモレ」であると表示させるようにわずかに変更されています。


クレジット:
アニッシュ・アタリエ 、敵対的攻撃に焦点を当てているlabsix研究グループのメンバー

変更は明白ではありません。 上記の例から明らかなように、人間の場合、変更はまったく不可能です。 人間の読者は、右側の画像をトラ猫として分類することに何の問題もありません。 しかし、画像、ビデオ、テキスト、またはオーディオに小さな変更を加えると、AI システムがだまされて、存在しないものを認識させたり、一時停止の標識などの存在するものを無視させたりする可能性があります。

この種の攻撃は、自動運転車、生体認証、医療診断、コンテンツ フィルタリングなど、正確で信頼性の高い予測に依存する AI システムに深刻な脅威をもたらします。

AIの幻覚はどのくらい危険ですか?

AI の幻覚は、特に AI システムの種類によっては、非常に危険な場合があります。 ユーザーのお金を使うことができる自動運転車や AI アシスタント、オンラインの不快なコンテンツを除外する AI システムは、完全に信頼できるものでなければなりません。

しかし、この時間の明白な事実は、AI システムが完全に信頼できるわけではなく、実際には幻覚を起こしやすいということです。 今日の最も高度な AI モデルでさえ、影響を受けないわけではありません。

たとえば、ある攻撃ショーでは、Google のクラウド コンピューティング サービスをだまして、ヘリコプターのように銃を尾行させました。 現時点で、人が武装していないことを確認する責任が AI にあったと想像できますか?

別の敵対的攻撃では、一時停止標識に小さな画像を追加すると、AI システムから見えなくなることが示されました。 基本的に、これは、自動運転車が道路に一時停止の標識がないことを幻覚にさせることができることを意味します。 自動運転車が今日現実になったら、どれだけの事故が発生する可能性があるでしょうか? それが彼らが今いない理由です。

現在人気のあるチャット番組を考慮に入れても、幻覚によって誤った出力が生成される可能性があります。 しかし、AI チャットボットが幻覚を起こしやすいことを知らず、AI ボットによって生成された出力を検証しない人は、誤って誤った情報を広める可能性があります。 これがどれほど危険かを説明する必要はありません。

さらに、敵対的な攻撃は差し迫った懸念事項です。 これまでのところ、それらは実験室でのみ示されています。 しかし、ミッション クリティカルな AI システムが現実の世界で直面した場合、その結果は壊滅的なものになる可能性があります。

実際には、自然言語モデルを保護する方が比較的簡単です。 (簡単だと言っているわけではありません。それでも非常に難しいことがわかっています。) ただし、コンピューター ビジョン システムの保護は、まったく別のシナリオです。 特に自然界には非常に多くのバリエーションがあり、画像には多数のピクセルが含まれているため、これはさらに困難です。

この問題を解決するには、幻覚を起こしにくくする、より人間的な世界観を持つ AI プログラムが必要になるかもしれません。 研究が行われている間、自然からヒントを得て幻覚の問題を回避しようとすることができる人工知能には、まだ長い道のりがあります. 今のところ、それらは厳しい現実です。

一般に、AI の幻覚は複雑な現象であり、さまざまな要因が組み合わさって発生する可能性があります。 研究者は、AI システムの精度と信頼性を向上させるために、AI の幻覚を検出して軽減する方法を積極的に開発しています。 ただし、AI システムとやり取りするときは、それらに注意する必要があります。

関連記事
記事を公開する

コメントを追加