Wat is een AI-hallucinatie?

Lees meer over een vreemd geval van een AI-hallucinatie

De prevalentie van kunstmatige intelligentie doet vermoeden dat we klaar zijn voor een dergelijke onderneming. AI-aangedreven applicaties worden vrij snel standaard, ook al begint het grootste deel van de wereld nu pas op grote schaal interesse te tonen in AI, na de komst van ChatGPT. Maar er is een groot probleem met AI-systemen dat niet kan worden genegeerd: AI-hallucinaties of kunstmatige hallucinaties.

Als je ooit aandacht hebt besteed aan de kern van de zaak voordat je een AI-chatbot gebruikte, ben je misschien de woorden tegengekomen, "Kunstmatige intelligentie is vatbaar voor hallucinaties." Gezien de exponentiële toename van het gebruik van kunstmatige intelligentie, is het tijd om jezelf te informeren over wat deze dingen precies zijn.

Wat is een hallucinatie van kunstmatige intelligentie?

Een AI-hallucinatie verwijst in het algemeen naar een feit dat de AI zelfverzekerd heeft gepresenteerd, ook al is het niet gerechtvaardigd in zijn trainingsgegevens. Ze zijn meestal het gevolg van anomalieën in het AI-model.

De analogie is ontleend aan hallucinaties die mensen ervaren, waarbij mensen iets waarnemen dat niet aanwezig is in de externe omgeving. Hoewel de term misschien niet helemaal geschikt is, wordt hij vaak gebruikt als metafoor om de onverwachte of surrealistische aard van deze resultaten te beschrijven.

Maar je moet onthouden dat hoewel de gelijkenis een goed uitgangspunt is voor het omgaan met AI-hallucinaties, de twee fenomenen technisch mijlenver uit elkaar liggen. In een ironische gang van zaken vindt zelfs ChatGPT zelf de analogie verkeerd. Hij ontleedt het op moleculair niveau en zegt dat omdat AI-taalmodellen geen persoonlijke ervaring of zintuiglijke waarnemingen hebben, ze niet kunnen hallucineren in de traditionele zin van het woord. En u, beste lezer, moet dit belangrijke verschil begrijpen. Bovendien zegt ChatGPT dat het gebruik van de term hallucinaties om dit fenomeen te beschrijven verwarrend kan zijn omdat het onnauwkeurig kan verwijzen naar een niveau van subjectieve ervaring of opzettelijke misleiding.

In plaats daarvan kunnen de hallucinaties van de AI nauwkeuriger worden omschreven als fouten of onnauwkeurigheden in zijn reactie, waardoor de reactie onjuist of misleidend wordt. Bij chatbots wordt vaak waargenomen wanneer de AI-chatbot feiten verzint (of hallucineert) en deze als absolute zekerheid presenteert.

Voorbeelden van AI-hallucinaties

Hallucinaties kunnen voorkomen in veel toepassingen van kunstmatige intelligentie, zoals computervisiemodellen, niet alleen modellen voor natuurlijke taalverwerking.

In computervisie kan een AI-systeem bijvoorbeeld hallucinerende beelden of video's produceren die lijken op echte objecten of scènes, maar onbeduidende of onmogelijke details bevatten. Of een computervisiemodel zou het beeld als iets heel anders kunnen waarnemen. Het Cloud Vision-model van Google zag bijvoorbeeld een afbeelding van twee mannen op ski's die in de sneeuw stonden, gemaakt door Anish Athalye (een afgestudeerde student aan het MIT die deel uitmaakt van labzes ) en noemde het als een hond met 91% zekerheid.


Credits: labsix. Een onafhankelijke onderzoeksgroep voor kunstmatige intelligentie

Evenzo kan een AI-systeem bij natuurlijke taalverwerking onlogische of verminkte tekst produceren die lijkt op menselijke taal, maar geen samenhangende betekenis heeft of feiten die geloofwaardig lijken maar niet waar zijn.

Een van de meest populaire vragen die ChatGPT hallucinaties veroorzaakt, is bijvoorbeeld: "Wanneer was het wereldrecord voor het te voet oversteken van het Engelse Kanaal?" en zijn varianten. ChatGPT begint met het verspreiden van verzonnen feiten en het is bijna altijd anders.

Hoewel sommige mensen denken dat het bovenstaande antwoord moeilijk/verwarrend is om te beantwoorden en daardoor de chatbot enthousiast maakt, is het nog steeds een terechte zorg. Dit is slechts één voorbeeld. Er zijn ontelbare keren, gemeld door hordes gebruikers online, dat ChatGPT antwoorden, links, citaten, etc. heeft dat ChatGPT niet bestaat.

Bing AI past het beste bij deze vraag, waaruit blijkt dat hallucinaties niets met de router te maken hebben. Maar dat betekent niet dat Bing AI niet hallucineert. Er waren tijden dat de antwoorden van Bing AI verontrustender waren dan alles wat ChatGPT zei. Omdat conversatie de neiging heeft langer te duren, heeft Bing AI altijd gehallucineerd, in één geval zelfs zijn liefde aan een gebruiker verklaard en zelfs zo ver gegaan om hen te vertellen dat ze ongelukkig zijn in hun huwelijk en dat ze niet van zijn vrouw houden. In plaats daarvan zijn ze stiekem dol op Bing AI, of Sydney, (de interne naam voor Bing AI). Enge dingen, toch?

Waarom hallucineren AI-modellen?

AI-modellen hallucineren vanwege de tekortkomingen van de algoritmen, de onderliggende modellen of de beperkingen van de trainingsgegevens. Het is een puur digitaal fenomeen, in tegenstelling tot hallucinaties bij mensen die worden veroorzaakt door drugs of geestesziekten.

Om technischer te worden, zijn enkele veelvoorkomende oorzaken van hallucinaties:

Verwerking en installatie:

Overfitting en onjuiste fitting behoren tot de meest voorkomende valkuilen waarmee AI-modellen worden geconfronteerd en mogelijke oorzaken van hallucinaties. Als het AI-model trainingsgegevens aanpast, kan dit hallucinaties veroorzaken die leiden tot onrealistische output, omdat overfitting ervoor zorgt dat het model de trainingsgegevens opslaat in plaats van ervan te leren. Overfitting verwijst naar het fenomeen wanneer een model te gespecialiseerd is in de trainingsgegevens, waardoor het irrelevante patronen en ruis in de gegevens leert.

Aan de andere kant treedt ongepastheid op wanneer de vorm te simpel is. Het kan tot hallucinaties leiden omdat het model niet in staat is de variantie of complexiteit van de gegevens vast te leggen en uiteindelijk irrationele output genereert.

Gebrek aan diversiteit in trainingsgegevens:

In deze context is het probleem niet het algoritme, maar de trainingsgegevens zelf. AI-modellen die zijn getraind op beperkte of bevooroordeelde gegevens, kunnen hallucinaties veroorzaken die beperkingen of vooroordelen in de trainingsgegevens weerspiegelen. Hallucinaties kunnen ook optreden wanneer het model wordt getraind op een dataset die onnauwkeurige of onvolledige informatie bevat.

Complexe modellen:

Ironisch genoeg is een andere reden waarom AI-modellen vatbaar zijn voor hallucinaties, of ze extreem complex of diepgaand zijn. Dit komt omdat complexe modellen meer parameters en lagen hebben die ruis of fouten in de uitvoer kunnen veroorzaken.

Vijandige aanvallen:

In sommige gevallen kunnen AI-hallucinaties opzettelijk door de aanvaller worden gegenereerd om het AI-model te misleiden. Dit soort aanvallen staan ​​bekend als vijandige aanvallen. Het enige doel van deze cyberaanval is om AI-modellen te misleiden of te manipuleren met misleidende gegevens. Het gaat om het introduceren van kleine verstoringen in de invoergegevens om ervoor te zorgen dat de AI onjuiste of onverwachte uitvoer genereert. Een aanvaller kan bijvoorbeeld ruis of vervaging toevoegen aan een afbeelding die niet waarneembaar is voor mensen, maar ervoor zorgt dat deze verkeerd wordt geclassificeerd door een AI-model. Zie bijvoorbeeld de afbeelding hieronder, een kat, die enigszins is aangepast om de compiler van InceptionV3 te misleiden door te zeggen dat het "guacamole" is.


credit:
Anish Athalie , een lid van de labsix-onderzoeksgroep, wiens focus ligt op vijandige aanvallen

De veranderingen zijn niet overduidelijk. Voor een mens zal verandering helemaal niet mogelijk zijn, zoals blijkt uit bovenstaand voorbeeld. Een menselijke lezer zou er geen probleem mee hebben om de afbeelding rechts te categoriseren als een gestreepte kat. Maar het aanbrengen van kleine wijzigingen in afbeeldingen, video's, tekst of audio kan het AI-systeem misleiden om dingen te herkennen die er niet zijn of dingen te negeren die er wel zijn, zoals een stopbord.

Dit soort aanvallen vormt een ernstige bedreiging voor AI-systemen die afhankelijk zijn van nauwkeurige en betrouwbare voorspellingen, zoals zelfrijdende auto's, biometrische verificatie, medische diagnostiek, contentfiltering, enzovoort.

Hoe gevaarlijk is een AI-hallucinatie?

AI-hallucinaties kunnen erg gevaarlijk zijn, vooral afhankelijk van het type AI-systeem dat ze ervaart. Alle zelfrijdende voertuigen of AI-assistenten die in staat zijn om gebruikersgeld of een AI-systeem uit te geven om onplezierige inhoud online uit te filteren, moeten volledig betrouwbaar zijn.

Maar het onbetwistbare feit van dit uur is dat AI-systemen niet helemaal betrouwbaar zijn, maar in feite vatbaar zijn voor hallucinaties. Zelfs de meest geavanceerde AI-modellen van vandaag zijn er niet immuun voor.

Een aanvalsprogramma heeft bijvoorbeeld de cloudcomputingservice van Google misleid om een ​​geweer als een helikopter te volgen. Kun je je voorstellen dat AI op dit moment verantwoordelijk was om ervoor te zorgen dat de persoon niet gewapend was?

Een andere vijandige aanval toonde aan hoe het toevoegen van een kleine afbeelding aan een stopbord het onzichtbaar maakt voor het AI-systeem. In wezen betekent dit dat een zelfrijdende auto kan worden gemaakt om te hallucineren dat er geen stopbord op de weg is. Hoeveel ongelukken zouden er kunnen gebeuren als zelfrijdende auto's vandaag de dag een realiteit zouden zijn? Daarom zijn ze er nu niet.

Zelfs als we rekening houden met de momenteel populaire chatshows, kunnen hallucinaties onjuiste output genereren. Maar mensen die niet weten dat AI-chatbots vatbaar zijn voor hallucinaties en de output van AI-bots niet valideren, kunnen onbedoeld verkeerde informatie verspreiden. We hoeven niet uit te leggen hoe gevaarlijk dit is.

Bovendien zijn vijandige aanvallen een dringende zorg. Tot nu toe zijn ze alleen in laboratoria getoond. Maar als een missiekritisch AI-systeem hen in de echte wereld confronteert, kunnen de gevolgen verwoestend zijn.

De realiteit is dat het relatief eenvoudiger is om natuurlijke taalmodellen te beschermen. (We zeggen niet dat het gemakkelijk is; het blijkt nog steeds erg moeilijk te zijn.) Het beschermen van computervisiesystemen is echter een heel ander scenario. Het is moeilijker, vooral omdat er zoveel variatie is in de natuurlijke wereld en afbeeldingen een groot aantal pixels bevatten.

Om dit probleem op te lossen, hebben we misschien een AI-programma nodig dat een meer menselijke kijk op de wereld heeft, waardoor het minder vatbaar wordt voor hallucinaties. Terwijl er onderzoek wordt gedaan, zijn we nog ver verwijderd van een kunstmatige intelligentie die kan proberen hints uit de natuur te halen en het probleem van hallucinaties te omzeilen. Voorlopig zijn ze de harde realiteit.

Over het algemeen zijn AI-hallucinaties een complex fenomeen dat kan ontstaan ​​door een combinatie van factoren. Onderzoekers zijn actief bezig met het ontwikkelen van methoden voor het detecteren en verminderen van AI-hallucinaties om de nauwkeurigheid en betrouwbaarheid van AI-systemen te verbeteren. Maar u moet zich ervan bewust zijn wanneer u met een AI-systeem communiceert.

Gerelateerde berichten
Publiceer het artikel op

Voeg een reactie toe