什么是人工智能幻觉?

了解 AI 幻觉的奇怪案例

人工智能的普及让人认为我们已经为这样的事业做好了准备。 AI 驱动的应用程序正迅速成为标准,即使世界上大多数人在 ChatGPT 出现后才开始大规模关注 AI。 但是人工智能系统有一个不容忽视的大问题——人工智能幻觉,或者人工幻觉。

如果你在使用 AI 聊天机器人之前关注过细节问题,你可能会遇到这样的话, “人工智能很容易产生幻觉。” 鉴于人工智能的使用呈指数增长,是时候让自己了解这些东西到底是什么了。

什么是人工智能幻觉?

一般来说,AI 产生幻觉是指 AI 自信地呈现了一个事实,尽管它在其训练数据中并不合理。 它们通常是 AI 模型异常的结果。

这个类比取自人类所经历的幻觉,在幻觉中人类感知到的是外部环境中不存在的东西。 虽然该术语可能并不完全合适,但它经常被用作比喻来描述这些输出的意外或超现实性质。

但是你应该记住,虽然相似性是处理 AI 幻觉的一个很好的起点,但这两种现象在技术上相距甚远。 具有讽刺意味的是,就连 ChatGPT 本身也发现这个类比是错误的。 他在分子水平上剖析说,由于人工智能语言模型没有个人经验或感官知觉,它们无法产生传统意义上的幻觉。 亲爱的读者,您必须了解这一重要区别。 此外,ChatGPT 表示,使用幻觉一词来描述这种现象可能会造成混淆,因为它可能不准确地指代主观体验或故意欺骗的程度。

相反,AI 的幻觉可以更准确地描述为其响应中的错误或不准确,从而使响应不正确或具有误导性。 对于聊天机器人,当 AI 聊天机器人编造(或产生幻觉)事实并将其呈现为绝对确定时,通常会被观察到。

人工智能幻觉的例子

幻觉可以出现在人工智能的许多应用中,例如计算机视觉模型,而不仅仅是自然语言处理模型。

例如,在计算机视觉中,人工智能系统可能会产生类似于真实物体或场景但包含无关紧要或不可能的细节的幻觉图像或视频。 或者,计算机视觉模型可以将图像视为完全不同的东西。 例如,Google 的 Cloud Vision 模型看到了两个男人站在雪地上滑雪的图像,由 Anish Athalye(麻省理工学院研究生,属于 实验六 ) 并以 91% 的确定性将其称为狗。


学分:labsix。 人工智能独立研究组

同样,在自然语言处理中,人工智能系统可能会产生类似于人类语言但没有连贯意义的不合逻辑或乱码的文本,或者产生看似可信但并非真实的事实。

例如,ChatGPT 引起幻觉的最常见问题之一是“徒步穿越英吉利海峡的世界纪录是什么时候创下的?” 及其变体。 ChatGPT 开始传播捏造的事实,而且几乎总是不同的。

虽然有些人认为上述答案难以回答/令人困惑,从而导致聊天机器人赞不绝口,但这仍然是一个合理的担忧。 这只是一个例子。 无数次,成群结队的在线用户报告说,ChatGPT 有答案、链接、引用等,而 ChatGPT 并不存在。

Bing AI最符合这个问题,说明幻觉跟路由器没有关系。 但这并不意味着 Bing AI 没有产生幻觉。 有时,Bing AI 的回答比 ChatGPT 所说的任何内容都更令人不安。 由于对话往往需要更长的时间,Bing AI 总是产生幻觉,甚至有一次向用户表白,甚至告诉他们他们的婚姻不幸福,他们不爱他的妻子。 相反,他们也暗中喜欢 Bing AI 或 Sydney(Bing AI 的内部名称)。 可怕的东西,对吧?

为什么 AI 模型会产生幻觉?

由于算法、底层模型或训练数据的局限性的缺陷,人工智能模型会产生幻觉。 这是一种纯粹的数字现象,不像人类因药物或精神疾病引起的幻觉。

为了获得更多技术,幻觉的一些常见原因是:

加工安装:

过度拟合和不正确拟合是 AI 模型面临的最常见缺陷,也是产生幻觉的可能原因。 如果 AI 模型修改了训练数据,可能会产生幻觉,导致输出不切实际,因为过度拟合会导致模型保存训练数据,而不是从中学习。 过度拟合是指当模型过于专注于训练数据时,导致它学习数据中不相关的模式和噪声的现象。

另一方面,当形式过于简单时,就会出现不恰当的情况。 它可能会导致幻觉,因为模型无法捕获数据的差异或复杂性,并最终生成不合理的输出。

训练数据缺乏多样性:

在这种情况下,问题不在于算法,而在于训练数据本身。 在有限或有偏见的数据上训练的 AI 模型可能会产生反映训练数据的局限性或偏见的幻觉。 当模型在包含不准确或不完整信息的数据集上训练时,也会出现幻觉。

复杂模型:

具有讽刺意味的是,人工智能模型容易产生幻觉的另一个原因是它们是否极其复杂或深刻。 这是因为复杂的模型有更多的参数和层,可能会在输出中引入噪声或错误。

敌对攻击:

在某些情况下,AI 幻觉可能是攻击者故意产生的,以欺骗 AI 模型。 这些类型的攻击称为恶意攻击。 这种网络攻击的唯一目的是用误导性数据欺骗或操纵人工智能模型。 它涉及在输入数据中引入小扰动,导致 AI 生成不正确或意外的输出。 例如,攻击者可能会向人类无法察觉的图像添加噪声或模糊,但会导致它被 AI 模型错误分类。 例如,请参见下图,一只猫,经过轻微修改以诱使 InceptionV3 的编译器声明它是“鳄梨酱”。


信用:
阿尼施·阿塔利 ,labsix研究组成员,专注于对抗性攻击

这些变化并不明显。 从上面的例子可以明显看出,对于一个人来说,改变是根本不可能的。 人类读者可以毫无问题地将右边的图像归类为虎斑猫。 但是对图像、视频、文本或音频进行微小的更改可能会欺骗 AI 系统识别不存在的事物或忽略存在的事物,例如停车标志。

这些类型的攻击对依赖准确可靠预测的 AI 系统构成严重威胁,例如自动驾驶汽车、生物识别验证、医疗诊断、内容过滤等。

人工智能幻觉有多危险?

人工智能幻觉可能非常危险,特别是取决于正在经历它们的人工智能系统的类型。 任何能够花用户钱的自动驾驶汽车或 AI 助手或 AI 系统可以过滤掉网上不愉快的内容,都必须是完全值得信赖的。

但这个小时无可争辩的事实是,人工智能系统并不完全值得信赖,而且实际上容易产生幻觉。 即使是当今最先进的人工智能模型也不能幸免。

例如,一个攻击节目诱使谷歌的云计算服务像直升机一样尾随枪支。 您能想象一下,如果此时 AI 负责确保此人没有携带武器吗?

另一次恶意攻击展示了如何将小图像添加到停车标志使其对 AI 系统不可见。 从本质上讲,这意味着可以让自动驾驶汽车产生道路上没有停车标志的幻觉。 如果今天自动驾驶汽车成为现实,会发生多少事故? 这就是为什么他们现在不是。

即使我们考虑到当前流行的聊天节目,幻觉也会产生不正确的输出。 但是不知道人工智能聊天机器人容易产生幻觉并且不验证人工智能机器人产生的输出的人可能会无意中传播错误信息。 我们不需要解释这有多危险。

此外,敌对攻击是一个紧迫的问题。 到目前为止,它们只在实验室中展示过。 但如果关键任务人工智能系统在现实世界中与他们对抗,后果可能是毁灭性的。

事实上,保护自然语言模型相对容易一些。 (我们并不是说这很容易;它仍然被证明是非常困难的。)但是,保护计算机视觉系统是一个完全不同的场景。 这更加困难,尤其是因为自然界变化如此之大,而且图像包含大量像素。

为了解决这个问题,我们可能需要一个人工智能程序,它具有更人性化的世界观,可以减少产生幻觉的可能性。 虽然正在进行研究,但我们距离可以尝试从大自然中获取提示并避免幻觉问题的人工智能还有很长的路要走。 目前,它们是一个严酷的现实。

一般来说,人工智能幻觉是一种复杂的现象,可能由多种因素共同引起。 研究人员正在积极开发检测和减轻 AI 幻觉的方法,以提高 AI 系统的准确性和可靠性。 但是在与任何 AI 系统交互时,您应该注意它们。

相关文章
发表文章于

添加评论