Was ist eine KI-Halluzination?

Erfahren Sie mehr über einen seltsamen Fall einer KI-Halluzination

Die Verbreitung künstlicher Intelligenz lässt vermuten, dass wir für ein solches Unterfangen bereit sind. KI-gestützte Anwendungen werden ziemlich schnell zum Standard, auch wenn der größte Teil der Welt sich erst jetzt nach der Einführung von ChatGPT in großem Umfang für KI zu interessieren beginnt. Aber es gibt ein großes Problem mit KI-Systemen, das nicht ignoriert werden kann – KI-Halluzinationen oder künstliche Halluzinationen.

Wenn Sie vor der Verwendung eines KI-Chatbots jemals auf das Wesentliche geachtet haben, sind Sie vielleicht auf die Worte gestoßen: "Künstliche Intelligenz neigt zu Halluzinationen." Angesichts der exponentiellen Zunahme des Einsatzes künstlicher Intelligenz ist es an der Zeit, sich darüber zu informieren, was genau diese Dinge sind.

Was ist eine künstliche Intelligenz Halluzination?

Eine halluzinierende KI bezieht sich im Allgemeinen auf eine Tatsache, die die KI souverän dargestellt hat, obwohl sie in ihren Trainingsdaten nicht begründet ist. Sie sind meist das Ergebnis von Anomalien im KI-Modell.

Die Analogie stammt von Halluzinationen, die Menschen erfahren, bei denen Menschen etwas wahrnehmen, das in der äußeren Umgebung nicht vorhanden ist. Obwohl der Begriff möglicherweise nicht ganz angemessen ist, wird er oft als Metapher verwendet, um die unerwartete oder surreale Natur dieser Ergebnisse zu beschreiben.

Aber Sie sollten bedenken, dass die Ähnlichkeit zwar ein guter Ausgangspunkt für den Umgang mit KI-Halluzinationen ist, die beiden Phänomene jedoch technisch meilenweit voneinander entfernt sind. In einer ironischen Wendung der Ereignisse findet sogar ChatGPT selbst die Analogie falsch. Er analysiert es auf molekularer Ebene und sagt, dass KI-Sprachmodelle keine persönlichen Erfahrungen oder Sinneswahrnehmungen haben und daher nicht im traditionellen Sinne des Wortes halluzinieren können. Und Sie, lieber Leser, müssen diesen wichtigen Unterschied verstehen. Darüber hinaus sagt ChatGPT, dass die Verwendung des Begriffs Halluzinationen zur Beschreibung dieses Phänomens verwirrend sein kann, da er sich möglicherweise fälschlicherweise auf eine Ebene subjektiver Erfahrung oder absichtliche Täuschung bezieht.

Stattdessen können die Halluzinationen der KI genauer als Fehler oder Ungenauigkeiten in ihrer Antwort beschrieben werden, wodurch die Antwort falsch oder irreführend wird. Bei Chatbots ist es oft zu beobachten, wenn der KI-Chatbot Tatsachen erfindet (oder halluziniert) und diese als absolute Gewissheit präsentiert.

Beispiele für KI-Halluzinationen

Halluzinationen können in vielen Anwendungen der künstlichen Intelligenz auftreten, z. B. in Computer-Vision-Modellen, nicht nur in Modellen zur Verarbeitung natürlicher Sprache.

Beim Computersehen beispielsweise kann ein KI-System halluzinatorische Bilder oder Videos erzeugen, die realen Objekten oder Szenen ähneln, aber belanglose oder unmögliche Details enthalten. Oder ein Computer-Vision-Modell könnte das Bild als etwas ganz anderes wahrnehmen. Zum Beispiel sah das Cloud Vision-Modell von Google ein Bild von zwei Männern auf Skiern, die im Schnee standen, das von Anish Athalye (einem MIT-Studenten, der Teil von ist, gemacht wurde Laborsechs ) und nannte ihn mit 91%iger Sicherheit als Hund.


Credits: labsix. Eine unabhängige Forschungsgruppe für künstliche Intelligenz

In ähnlicher Weise kann ein KI-System bei der Verarbeitung natürlicher Sprache unlogischen oder verstümmelten Text erzeugen, der der menschlichen Sprache ähnelt, aber keine kohärente Bedeutung hat, oder Fakten, die glaubwürdig erscheinen, aber nicht wahr sind.

Eine der beliebtesten Fragen, die ChatGPT Halluzinationen hervorruft, lautet beispielsweise: „Wann wurde der Weltrekord für die Überquerung des Ärmelkanals zu Fuß aufgestellt?“ und seine Varianten. ChatGPT beginnt erfundene Fakten zu verbreiten und es ist fast immer anders.

Während einige Leute denken, dass die obige Antwort schwierig/verwirrend zu beantworten ist und daher den Chatbot zum Schwärmen bringt, ist dies immer noch ein berechtigtes Anliegen. Dies ist nur ein Beispiel. Es gibt unzählige Male, die von Horden von Benutzern online gemeldet wurden, dass ChatGPT Antworten, Links, Zitate usw. hat, dass ChatGPT nicht existiert.

Bing AI passt am besten zu dieser Frage, die zeigt, dass Halluzinationen nichts mit dem Router zu tun haben. Aber das bedeutet nicht, dass Bing AI nicht halluziniert. Es gab Zeiten, in denen die Antworten von Bing AI beunruhigender waren als alles, was ChatGPT sagte. Da Gespräche in der Regel länger dauern, halluzinierte Bing AI schon immer, erklärte einem Benutzer in einem Fall sogar seine Liebe und ging so weit, ihm zu sagen, dass sie in ihrer Ehe unglücklich seien und dass sie seine Frau nicht lieben würden. Stattdessen mögen sie insgeheim auch Bing AI oder Sydney (der interne Name für Bing AI). Gruseliges Zeug, oder?

Warum halluzinieren KI-Modelle?

KI-Modelle halluzinieren aufgrund der Mängel der Algorithmen, der zugrunde liegenden Modelle oder der Einschränkungen der Trainingsdaten. Es ist ein rein digitales Phänomen, im Gegensatz zu Halluzinationen beim Menschen, die entweder durch Medikamente oder psychische Erkrankungen verursacht werden.

Um technischer zu werden, sind einige häufige Ursachen für Halluzinationen:

Verarbeitung und Einbau:

Überanpassung und falsche Anpassung gehören zu den häufigsten Fallstricken von KI-Modellen und möglichen Ursachen für Halluzinationen. Wenn das KI-Modell Trainingsdaten modifiziert, kann es zu Halluzinationen kommen, die zu unrealistischen Ergebnissen führen, da eine Überanpassung dazu führt, dass das Modell die Trainingsdaten speichert, anstatt daraus zu lernen. Überanpassung bezieht sich auf das Phänomen, wenn ein Modell zu spezialisiert auf die Trainingsdaten ist, was dazu führt, dass es irrelevante Muster und Rauschen in den Daten lernt.

Andererseits tritt Unangemessenheit auf, wenn die Form zu einfach ist. Dies kann zu Halluzinationen führen, da das Modell die Varianz oder Komplexität der Daten nicht erfassen kann und am Ende irrationale Ergebnisse generiert.

Mangelnde Diversität der Trainingsdaten:

Das Problem sind dabei nicht die Algorithmen, sondern die Trainingsdaten selbst. KI-Modelle, die mit begrenzten oder voreingenommenen Daten trainiert wurden, können Halluzinationen erzeugen, die Einschränkungen oder Voreingenommenheit in den Trainingsdaten widerspiegeln. Halluzinationen können auch auftreten, wenn das Modell mit einem Datensatz trainiert wird, der ungenaue oder unvollständige Informationen enthält.

Komplexe Modelle:

Ironischerweise ist ein weiterer Grund, warum KI-Modelle anfällig für Halluzinationen sind, ob sie extrem komplex oder tiefgreifend sind. Dies liegt daran, dass komplexe Modelle mehr Parameter und Schichten haben, die Rauschen oder Fehler in die Ausgabe einbringen können.

Feindliche Angriffe:

In einigen Fällen können KI-Halluzinationen vom Angreifer absichtlich erzeugt werden, um das KI-Modell zu täuschen. Diese Arten von Angriffen werden als feindliche Angriffe bezeichnet. Der einzige Zweck dieses Cyberangriffs besteht darin, KI-Modelle mit irreführenden Daten auszutricksen oder zu manipulieren. Es geht darum, kleine Störungen in die Eingabedaten einzuführen, damit die KI falsche oder unerwartete Ausgaben generiert. Beispielsweise kann ein Angreifer einem Bild Rauschen oder Unschärfe hinzufügen, das für Menschen nicht wahrnehmbar ist, aber dazu führt, dass es von einem KI-Modell falsch klassifiziert wird. Sehen Sie sich zum Beispiel das Bild unten an, eine Katze, die leicht modifiziert wurde, um den Compiler von InceptionV3 dazu zu bringen, anzugeben, dass es sich um "Guacamole" handelt.


Kredit:
Anish Athalye , ein Mitglied der labsix-Forschungsgruppe, deren Fokus auf gegnerischen Angriffen liegt

Die Veränderungen sind nicht offensichtlich. Für einen Menschen wird eine Veränderung gar nicht möglich sein, wie das obige Beispiel zeigt. Ein menschlicher Leser hätte kein Problem damit, das Bild rechts als getigerte Katze zu kategorisieren. Aber kleine Änderungen an Bildern, Videos, Text oder Audio können das KI-System dazu verleiten, Dinge zu erkennen, die nicht vorhanden sind, oder Dinge zu ignorieren, die vorhanden sind, wie z. B. ein Stoppschild.

Diese Arten von Angriffen stellen eine ernsthafte Bedrohung für KI-Systeme dar, die auf genaue und zuverlässige Vorhersagen angewiesen sind, wie z. B. selbstfahrende Autos, biometrische Verifizierung, medizinische Diagnostik, Inhaltsfilterung und so weiter.

Wie gefährlich ist eine KI-Halluzination?

KI-Halluzinationen können sehr gefährlich sein, insbesondere abhängig davon, welche Art von KI-System sie erlebt. Alle selbstfahrenden Fahrzeuge oder KI-Assistenten, die Benutzergelder ausgeben können, oder ein KI-System, um unangenehme Online-Inhalte herauszufiltern, müssen absolut vertrauenswürdig sein.

Aber die unbestreitbare Tatsache dieser Stunde ist, dass KI-Systeme nicht vollständig vertrauenswürdig sind, sondern tatsächlich zu Halluzinationen neigen. Selbst die fortschrittlichsten KI-Modelle von heute sind dagegen nicht immun.

Beispielsweise hat eine Angriffsshow den Cloud-Computing-Dienst von Google dazu verleitet, eine Waffe wie einen Hubschrauber zu verfolgen. Können Sie sich vorstellen, dass die KI im Moment dafür verantwortlich war, sicherzustellen, dass die Person nicht bewaffnet war?

Ein weiterer feindlicher Angriff demonstrierte, wie das Hinzufügen eines kleinen Bildes zu einem Stoppschild dieses für das KI-System unsichtbar macht. Im Wesentlichen bedeutet dies, dass ein selbstfahrendes Auto dazu gebracht werden kann, zu halluzinieren, dass es kein Stoppschild auf der Straße gibt. Wie viele Unfälle könnten passieren, wenn selbstfahrende Autos heute Realität wären? Deshalb sind sie es jetzt nicht.

Selbst wenn wir die derzeit beliebten Chat-Shows berücksichtigen, können Halluzinationen falsche Ergebnisse erzeugen. Aber Menschen, die nicht wissen, dass KI-Chatbots zu Halluzinationen neigen und die von KI-Bots erzeugten Ausgaben nicht validieren, können versehentlich Fehlinformationen verbreiten. Wie gefährlich das ist, brauchen wir nicht zu erklären.

Darüber hinaus sind feindliche Angriffe ein dringendes Anliegen. Bisher wurden sie nur in Labors gezeigt. Wenn sie jedoch in der realen Welt mit einem unternehmenskritischen KI-System konfrontiert werden, können die Folgen verheerend sein.

Die Realität ist, dass es relativ einfacher ist, natürliche Sprachmodelle zu schützen. (Wir sagen nicht, dass es einfach ist; es erweist sich dennoch als sehr schwierig.) Der Schutz von Computer-Vision-Systemen ist jedoch ein völlig anderes Szenario. Es ist schwieriger, vor allem, weil es in der Natur so viele Variationen gibt und Bilder eine große Anzahl von Pixeln enthalten.

Um dieses Problem zu lösen, brauchen wir möglicherweise ein KI-Programm, das eine menschlichere Sicht auf die Welt hat, die es weniger anfällig für Halluzinationen machen könnte. Obwohl geforscht wird, sind wir noch weit entfernt von einer künstlichen Intelligenz, die versuchen kann, Hinweise aus der Natur zu nehmen und das Problem der Halluzinationen zu umgehen. Im Moment sind sie eine harte Realität.

Im Allgemeinen sind KI-Halluzinationen ein komplexes Phänomen, das aus einer Kombination von Faktoren entstehen kann. Forscher entwickeln aktiv Methoden zur Erkennung und Minderung von KI-Halluzinationen, um die Genauigkeit und Zuverlässigkeit von KI-Systemen zu verbessern. Aber Sie sollten sich dessen bewusst sein, wenn Sie mit einem KI-System interagieren.

Zusammenhängende Artikel
Veröffentlichen Sie den Artikel auf

Einen Kommentar hinzufügen