Hva er en AI-hallusinasjon?

Lær om et merkelig tilfelle av en AI-hallusinasjon

Utbredelsen av kunstig intelligens får en til å tro at vi er klare for et slikt foretak. AI-drevne applikasjoner blir standard ganske raskt, selv om det meste av verden først nå begynner å interessere seg for AI i stor skala, etter ankomsten av ChatGPT. Men det er et stort problem med AI-systemer som ikke kan ignoreres - AI-hallusinasjoner, eller kunstige hallusinasjoner.

Hvis du noen gang har lagt merke til nitty gritty før du bruker en AI chatbot, kan det hende du har kommet over ordene, "Kunstig intelligens er utsatt for hallusinasjoner." Gitt den eksponentielle økningen i bruken av kunstig intelligens, er det på tide å utdanne deg selv om nøyaktig hva disse tingene er.

Hva er en kunstig intelligens hallusinasjon?

En AI som hallusinerer, generelt, refererer til et faktum som AI har selvsikkert presentert, selv om det ikke er berettiget i treningsdataene. De er vanligvis et resultat av anomalier i AI-modellen.

Analogien er hentet fra hallusinasjoner opplevd av mennesker, der mennesker oppfatter noe som ikke er tilstede i det ytre miljø. Selv om begrepet kanskje ikke er helt passende, brukes det ofte som en metafor for å beskrive den uventede eller surrealistiske naturen til disse utdataene.

Men du bør huske at selv om likheten er et godt utgangspunkt for å håndtere AI-hallusinasjoner, er de to fenomenene teknisk milevis fra hverandre. I en ironisk vending finner til og med ChatGPT selv at analogien er feil. Ved å dissekere det på molekylært nivå, sier han at fordi AI-språkmodeller ikke har personlig erfaring eller sensoriske oppfatninger, kan de ikke hallusinere i tradisjonell forstand av ordet. Og du, kjære leser, må forstå denne viktige forskjellen. Videre sier ChatGPT at det å bruke begrepet hallusinasjoner for å beskrive dette fenomenet kan være forvirrende fordi det kan referere til et nivå av subjektiv opplevelse eller forsettlig bedrag.

I stedet kan AIs hallusinasjoner mer nøyaktig beskrives som feil eller unøyaktigheter i responsen, noe som gjør responsen feil eller misvisende. Med chatbots blir det ofte observert når AI-chatboten finner opp (eller hallusinerer) fakta og presenterer dem som absolutt sikkerhet.

Eksempler på AI-hallusinasjoner

Hallusinasjoner kan forekomme i mange anvendelser av kunstig intelligens, for eksempel datasynsmodeller, ikke bare prosesseringsmodeller for naturlig språk.

I datasyn, for eksempel, kan et AI-system produsere hallusinatoriske bilder eller videoer som ligner virkelige objekter eller scener, men inneholder uvesentlige eller umulige detaljer. Eller en datasynsmodell kan oppfatte bildet som noe helt annet. For eksempel så Googles Cloud Vision-modell et bilde av to menn på ski som står i snøen laget av Anish Athalye (en MIT-student som er en del av labsix ) og nevnte den som en hund med 91 % sikkerhet.


Studiepoeng: labsix. En uavhengig forskningsgruppe for kunstig intelligens

På samme måte, i naturlig språkbehandling, kan et AI-system produsere ulogisk eller forvansket tekst som ligner menneskelig språk, men som ikke har en sammenhengende betydning eller fakta som virker troverdige, men som ikke er sanne.

For eksempel er et av de mest populære spørsmålene som ChatGPT forårsaker hallusinasjoner "Når ble verdensrekorden for å krysse Den engelske kanal til fots?" og dens varianter. ChatGPT begynner å spre oppdiktede fakta, og det er nesten alltid annerledes.

Mens noen mennesker synes at svaret ovenfor er vanskelig/forvirrende å svare på og dermed får chatboten til å rave, er det fortsatt en gyldig bekymring. Dette er bare ett eksempel. Det er utallige ganger, rapportert av horder av brukere på nettet, at ChatGPT har svar, lenker, sitater osv. at ChatGPT ikke eksisterer.

Bing AI passer best med dette spørsmålet, som viser at hallusinasjoner ikke har noe med ruteren å gjøre. Men det betyr ikke at Bing AI ikke hallusinerer. Det var tider da Bing AIs svar var mer urovekkende enn noe ChatGPT sa. Siden samtalen har en tendens til å ta lengre tid, har Bing AI alltid hallusinert, til og med erklært sin kjærlighet til en bruker i ett tilfelle og gått så langt som å fortelle dem at de er ulykkelige i ekteskapet og at de ikke elsker kona hans. I stedet er de i hemmelighet glad i Bing AI, eller Sydney, (det interne navnet på Bing AI), også. Skremmende greier, ikke sant?

Hvorfor hallusinerer AI-modeller?

AI-modeller er hallusinerende på grunn av manglene i algoritmene, de underliggende modellene eller begrensningene til treningsdataene. Det er et rent digitalt fenomen, i motsetning til hallusinasjoner hos mennesker som er forårsaket av enten rusmidler eller psykiske lidelser.

For å bli mer teknisk, er noen vanlige årsaker til hallusinasjoner:

Behandling og installasjon:

Overtilpasning og feil tilpasning er blant de vanligste fallgruvene AI-modeller står overfor og mulige årsaker til hallusinasjoner. Hvis AI-modellen modifiserer treningsdata, kan det forårsake hallusinasjoner som fører til urealistiske resultater fordi overfitting får modellen til å lagre treningsdataene i stedet for å lære av dem. Overfitting refererer til fenomenet når en modell er for spesialisert i treningsdataene, noe som får den til å lære irrelevante mønstre og støy i dataene.

På den annen side oppstår upassende når formen er for enkel. Det kan føre til hallusinasjoner fordi modellen ikke klarer å fange variansen eller kompleksiteten til dataene, og ender opp med å generere irrasjonelle utdata.

Mangel på mangfold i treningsdata:

I denne sammenhengen er ikke problemet algoritmen, men selve treningsdataene. AI-modeller trent på begrensede eller partiske data kan generere hallusinasjoner som gjenspeiler begrensninger eller skjevheter i treningsdataene. Hallusinasjoner kan også oppstå når modellen er trent på et datasett som inneholder unøyaktig eller ufullstendig informasjon.

Komplekse modeller:

Ironisk nok er en annen grunn til at AI-modeller er utsatt for hallusinasjoner om de er ekstremt komplekse eller dype. Dette er fordi komplekse modeller har flere parametere og lag som kan introdusere støy eller feil i utgangen.

Fiendtlige angrep:

I noen tilfeller kan AI-hallusinasjoner med vilje genereres av angriperen for å lure AI-modellen. Disse typer angrep er kjent som fiendtlige angrep. Det eneste formålet med dette nettangrepet er å lure eller manipulere AI-modeller med villedende data. Det innebærer å introdusere små forstyrrelser i inngangsdataene for å få AI til å generere feil eller uventet utgang. For eksempel kan en angriper legge til støy eller uskarphet til et bilde som er umerkelig for mennesker, men som fører til at det blir feilklassifisert av en AI-modell. Se for eksempel bildet nedenfor, en katt, som har blitt endret litt for å lure InceptionV3s kompilator til å si at den er "guacamole".


kreditt:
Anish Athalye , et medlem av forskningsgruppen Labsix, hvis fokus er på motstridende angrep

Endringene er ikke åpenbare. For et menneske vil endring ikke være mulig i det hele tatt, som det fremgår av eksemplet ovenfor. En menneskelig leser ville ikke ha noe problem med å kategorisere bildet til høyre som en tabby katt. Men å gjøre små endringer i bilder, videoer, tekst eller lyd kan lure AI-systemet til å gjenkjenne ting som ikke er der eller ignorere ting som er, som et stoppskilt.

Denne typen angrep utgjør alvorlige trusler mot AI-systemer som er avhengige av nøyaktige og pålitelige spådommer, for eksempel selvkjørende biler, biometrisk verifisering, medisinsk diagnostikk, innholdsfiltrering og så videre.

Hvor farlig er en AI-hallusinasjon?

AI-hallusinasjoner kan være svært farlige, spesielt avhengig av hvilken type AI-system som opplever dem. Alle selvkjørende kjøretøy eller AI-assistenter som er i stand til å bruke brukerpenger eller et AI-system for å filtrere ut ubehagelig innhold på nettet, må være helt pålitelige.

Men det ubestridelige faktum denne timen er at AI-systemer ikke er helt pålitelige, men faktisk er utsatt for hallusinasjoner. Selv dagens mest avanserte AI-modeller er ikke immune mot det.

For eksempel lurte ett angrepsshow Googles cloud computing-tjeneste til å hale en pistol som et helikopter. Kan du forestille deg om AI for øyeblikket var ansvarlig for å sørge for at personen ikke var bevæpnet?

Et annet fiendtlig angrep demonstrerte hvordan å legge til et lite bilde til et stoppskilt gjør det usynlig for AI-systemet. I hovedsak betyr dette at en selvkjørende bil kan fås til å hallusinere at det ikke er noe stoppskilt på veien. Hvor mange ulykker kunne skje hvis selvkjørende biler var en realitet i dag? Det er derfor de ikke er det nå.

Selv om vi tar i betraktning de populære chat-programmene, kan hallusinasjoner generere feil utgang. Men folk som ikke vet at AI-chatboter er utsatt for hallusinasjoner og ikke validerer utdataene som produseres av AI-roboter, kan utilsiktet spre feilinformasjon. Vi trenger ikke forklare hvor farlig dette er.

Videre er fiendtlige angrep en presserende bekymring. Foreløpig har de kun vært vist i laboratorier. Men hvis et oppdragskritisk AI-system konfronterer dem i den virkelige verden, kan konsekvensene bli ødeleggende.

Realiteten er at det er relativt enklere å beskytte naturlige språkmodeller. (Vi sier ikke at det er lett; det viser seg fortsatt å være veldig vanskelig.) Beskyttelse av datasynssystemer er imidlertid et helt annet scenario. Det er vanskeligere, spesielt fordi det er så mye variasjon i den naturlige verden, og bilder inneholder et stort antall piksler.

For å løse dette problemet kan vi trenge et AI-program som har et mer menneskelig syn på verden som kan gjøre den mindre utsatt for hallusinasjoner. Mens det forskes, er vi fortsatt et stykke unna en kunstig intelligens som kan prøve å ta hint fra naturen og unngå problemet med hallusinasjoner. Foreløpig er de en hard realitet.

Generelt er AI-hallusinasjoner et komplekst fenomen som kan oppstå fra en kombinasjon av faktorer. Forskere utvikler aktivt metoder for å oppdage og dempe AI-hallusinasjoner for å forbedre nøyaktigheten og påliteligheten til AI-systemer. Men du bør være oppmerksom på dem når du samhandler med ethvert AI-system.

Relaterte innlegg
Publiser artikkelen på

Legg til en kommentar