Qu'est-ce qu'une hallucination IA ?

En savoir plus sur un cas étrange d'hallucination de l'IA

La prédominance de l'intelligence artificielle fait penser que nous sommes prêts pour une telle entreprise. Les applications alimentées par l'IA se standardisent assez rapidement, même si la majeure partie du monde ne commence que maintenant à s'intéresser à l'IA à grande échelle, après l'arrivée de ChatGPT. Mais il y a un gros problème avec les systèmes d'IA qui ne peut être ignoré - les hallucinations de l'IA ou les hallucinations artificielles.

Si vous avez déjà prêté attention aux choses sérieuses avant d'utiliser un chatbot IA, vous avez peut-être rencontré les mots, "L'intelligence artificielle est sujette aux hallucinations." Compte tenu de l'augmentation exponentielle de l'utilisation de l'intelligence artificielle, il est temps de vous renseigner sur ce que sont exactement ces choses.

Qu'est-ce qu'une hallucination d'intelligence artificielle ?

Une IA hallucinante, en général, fait référence à un fait que l'IA a présenté avec confiance, même s'il n'est pas justifié dans ses données d'entraînement. Ils sont généralement le résultat d'anomalies dans le modèle d'IA.

L'analogie est tirée des hallucinations vécues par les humains, dans lesquelles les humains perçoivent quelque chose qui n'est pas présent dans l'environnement extérieur. Bien que le terme ne soit pas tout à fait approprié, il est souvent utilisé comme métaphore pour décrire la nature inattendue ou surréaliste de ces sorties.

Mais vous devez vous rappeler que si la similitude est un bon point de départ pour traiter les hallucinations de l'IA, les deux phénomènes sont techniquement à des kilomètres l'un de l'autre. Dans une tournure ironique des événements, même ChatGPT lui-même trouve l'analogie erronée. En le disséquant au niveau moléculaire, il dit que parce que les modèles de langage de l'IA n'ont pas d'expérience personnelle ou de perceptions sensorielles, ils ne peuvent pas halluciner au sens traditionnel du terme. Et vous, cher lecteur, devez comprendre cette différence importante. De plus, ChatGPT dit que l'utilisation du terme hallucinations pour décrire ce phénomène peut prêter à confusion car il peut se référer de manière inexacte à un niveau d'expérience subjective ou à une tromperie intentionnelle.

Au lieu de cela, les hallucinations de l'IA peuvent être décrites plus précisément comme des erreurs ou des inexactitudes dans sa réponse, rendant la réponse incorrecte ou trompeuse. Avec les chatbots, on observe souvent que le chatbot IA invente (ou hallucine) des faits et les présente comme une certitude absolue.

Exemples d'hallucinations de l'IA

Les hallucinations peuvent survenir dans de nombreuses applications de l'intelligence artificielle, telles que les modèles de vision par ordinateur, et pas seulement dans les modèles de traitement du langage naturel.

En vision par ordinateur, par exemple, un système d'IA peut produire des images ou des vidéos hallucinatoires qui ressemblent à des objets ou à des scènes réels mais contiennent des détails sans importance ou impossibles. Ou, un modèle de vision par ordinateur pourrait percevoir l'image comme quelque chose d'entièrement différent. Par exemple, le modèle Cloud Vision de Google a vu une image de deux hommes sur des skis debout dans la neige réalisée par Anish Athalye (un étudiant diplômé du MIT qui fait partie de labosix ) et l'a mentionné comme un chien avec 91 % de certitude.


Crédits : labsix. Un groupe de recherche indépendant pour l'intelligence artificielle

De même, dans le traitement du langage naturel, un système d'IA peut produire un texte illogique ou confus qui ressemble au langage humain mais qui n'a pas de sens cohérent ou des faits qui semblent crédibles mais qui ne sont pas vrais.

Par exemple, l'une des questions les plus populaires sur lesquelles ChatGPT provoque des hallucinations est "Quand a été établi le record du monde de traversée de la Manche à pied ?" et ses variantes. ChatGPT commence à diffuser des faits inventés et c'est presque toujours différent.

Alors que certaines personnes pensent que la réponse ci-dessus est difficile/confuse à répondre et fait donc délirer le chatbot, c'est toujours une préoccupation valable. Ceci n'est qu'un exemple. Il y a d'innombrables fois, signalées par des hordes d'utilisateurs en ligne, que ChatGPT a des réponses, des liens, des citations, etc. que ChatGPT n'existe pas.

Bing AI correspond le mieux à cette question, qui montre que les hallucinations n'ont rien à voir avec le routeur. Mais cela ne signifie pas que Bing AI n'hallucine pas. Il y avait des moments où les réponses de Bing AI étaient plus troublantes que tout ce que ChatGPT disait. Comme la conversation a tendance à prendre plus de temps, Bing AI a toujours halluciné, allant même jusqu'à déclarer son amour à un utilisateur dans un cas et allant jusqu'à lui dire qu'il est malheureux dans son mariage et qu'il n'aime pas sa femme. Au lieu de cela, ils aiment aussi secrètement Bing AI, ou Sydney (le nom interne de Bing AI). Des trucs effrayants, non ?

Pourquoi les modèles d'IA hallucinent-ils ?

Les modèles d'IA hallucinent en raison des lacunes des algorithmes, des modèles sous-jacents ou des limites des données d'entraînement. Il s'agit d'un phénomène purement numérique, contrairement aux hallucinations chez l'homme qui sont causées soit par la drogue, soit par une maladie mentale.

Pour être plus technique, certaines causes courantes d'hallucinations sont :

Traitement et installation :

Le surajustement et le mauvais ajustement sont parmi les pièges les plus courants auxquels sont confrontés les modèles d'IA et les causes possibles d'hallucinations. Si le modèle d'IA modifie les données d'entraînement, cela peut provoquer des hallucinations qui conduisent à une sortie irréaliste car le surajustement amène le modèle à enregistrer les données d'entraînement au lieu d'en tirer des leçons. Le surajustement fait référence au phénomène lorsqu'un modèle est trop spécialisé dans les données d'apprentissage, ce qui l'amène à apprendre des modèles non pertinents et du bruit dans les données.

D'autre part, l'inadéquation se produit lorsque la forme est trop simple. Cela peut conduire à des hallucinations car le modèle est incapable de capturer la variance ou la complexité des données et finit par générer une sortie irrationnelle.

Manque de diversité dans les données de formation :

Dans ce contexte, le problème n'est pas l'algorithme mais les données d'entraînement elles-mêmes. Les modèles d'IA formés sur des données limitées ou biaisées peuvent générer des hallucinations qui reflètent des limitations ou des biais dans les données de formation. Des hallucinations peuvent également se produire lorsque le modèle est formé sur un ensemble de données contenant des informations inexactes ou incomplètes.

Modèles complexes :

Ironiquement, une autre raison pour laquelle les modèles d'IA sont sujets aux hallucinations est de savoir s'ils sont extrêmement complexes ou profonds. En effet, les modèles complexes ont plus de paramètres et de couches qui peuvent introduire du bruit ou des erreurs dans la sortie.

Attaques hostiles :

Dans certains cas, des hallucinations d'IA peuvent être délibérément générées par l'attaquant pour tromper le modèle d'IA. Ces types d'attaques sont appelés attaques hostiles. Le seul but de cette cyberattaque est de tromper ou de manipuler des modèles d'IA avec des données trompeuses. Cela implique d'introduire de petites perturbations dans les données d'entrée pour amener l'IA à générer une sortie incorrecte ou inattendue. Par exemple, un attaquant peut ajouter du bruit ou du flou à une image qui est imperceptible pour les humains, mais qui la classe de manière erronée par un modèle d'IA. Par exemple, voyez l'image ci-dessous, un chat, qui a été légèrement modifié pour inciter le compilateur d'InceptionV3 à déclarer qu'il s'agit de "guacamole".


crédit:
Anish Athalie , membre du groupe de recherche labsix, qui se concentre sur les attaques contradictoires

Les changements ne sont pas flagrants. Pour un être humain, le changement ne sera pas du tout possible, comme le montre l'exemple ci-dessus. Un lecteur humain n'aurait aucun problème à catégoriser l'image de droite comme un chat tigré. Mais apporter de petites modifications aux images, aux vidéos, au texte ou à l'audio peut amener le système d'IA à reconnaître des choses qui ne sont pas là ou à ignorer les choses qui sont, comme un panneau d'arrêt.

Ces types d'attaques constituent de sérieuses menaces pour les systèmes d'IA qui s'appuient sur des prédictions précises et fiables, telles que les voitures autonomes, la vérification biométrique, les diagnostics médicaux, le filtrage de contenu, etc.

À quel point une hallucination de l'IA est-elle dangereuse ?

Les hallucinations de l'IA peuvent être très dangereuses, en particulier selon le type de système d'IA qui les subit. Tout véhicule autonome ou assistant IA capable de dépenser l'argent de l'utilisateur ou un système IA pour filtrer les contenus désagréables en ligne doit être totalement digne de confiance.

Mais le fait incontestable de cette heure est que les systèmes d'IA ne sont pas entièrement fiables mais sont, en fait, sujets aux hallucinations. Même les modèles d'IA les plus avancés d'aujourd'hui n'y sont pas immunisés.

Par exemple, une émission d'attaque a amené le service de cloud computing de Google à suivre une arme comme un hélicoptère. Pouvez-vous imaginer si, à l'heure actuelle, l'IA était chargée de s'assurer que la personne n'était pas armée ?

Une autre attaque hostile a démontré comment l'ajout d'une petite image à un panneau d'arrêt le rend invisible pour le système d'IA. Essentiellement, cela signifie qu'une voiture autonome peut être amenée à halluciner qu'il n'y a pas de panneau d'arrêt sur la route. Combien d'accidents pourraient se produire si les voitures autonomes étaient une réalité aujourd'hui ? C'est pourquoi ils ne le sont pas maintenant.

Même si nous prenons en compte les émissions de chat actuellement populaires, les hallucinations peuvent générer une sortie incorrecte. Mais les personnes qui ne savent pas que les chatbots IA sont sujets aux hallucinations et ne valident pas la sortie produite par les bots IA, peuvent par inadvertance diffuser de la désinformation. Nous n'avons pas besoin d'expliquer à quel point c'est dangereux.

En outre, les attaques hostiles sont une préoccupation urgente. Jusqu'à présent, ils n'ont été montrés qu'en laboratoire. Mais si un système d'IA critique les confronte dans le monde réel, les conséquences peuvent être dévastatrices.

La réalité est qu'il est relativement plus facile de protéger les modèles de langage naturel. (Nous ne disons pas que c'est facile ; cela s'avère toujours très difficile.) Cependant, la protection des systèmes de vision par ordinateur est un scénario entièrement différent. C'est plus difficile, surtout parce qu'il y a tellement de variations dans le monde naturel et que les images contiennent un grand nombre de pixels.

Pour résoudre ce problème, nous aurons peut-être besoin d'un programme d'IA qui a une vision plus humaine du monde, ce qui pourrait le rendre moins sujet aux hallucinations. Alors que des recherches sont en cours, nous sommes encore loin d'une intelligence artificielle qui puisse tenter de s'inspirer de la nature et d'éluder le problème des hallucinations. Pour l'instant, ils sont une dure réalité.

En général, les hallucinations d'IA sont un phénomène complexe qui peut résulter d'une combinaison de facteurs. Les chercheurs développent activement des méthodes pour détecter et atténuer les hallucinations de l'IA afin d'améliorer la précision et la fiabilité des systèmes d'IA. Mais vous devez en être conscient lorsque vous interagissez avec n'importe quel système d'IA.

articles similaires
Publier l'article sur

Ajouter un commentaire