Hvad er en AI-hallucination?

Lær om et mærkeligt tilfælde af en AI-hallucination

Udbredelsen af ​​kunstig intelligens får en til at tro, at vi er klar til et sådant foretagende. AI-drevne applikationer bliver ret hurtigt standard, selvom det meste af verden først nu begynder at interessere sig for AI i stor skala efter ankomsten af ​​ChatGPT. Men der er et stort problem med AI-systemer, som ikke kan ignoreres - AI-hallucinationer eller kunstige hallucinationer.

Hvis du nogensinde har været opmærksom på nitty gritty, før du brugte en AI chatbot, er du muligvis stødt på ordene, "Kunstig intelligens er tilbøjelig til hallucinationer." I betragtning af den eksponentielle stigning i brugen af ​​kunstig intelligens, er det tid til at uddanne dig selv om, hvad præcis disse ting er.

Hvad er en kunstig intelligens hallucination?

En AI-hallucinerende refererer generelt til en kendsgerning, som AI'en selvsikkert har præsenteret, selvom det ikke er begrundet i dets træningsdata. De er normalt resultatet af anomalier i AI-modellen.

Analogien er hentet fra hallucinationer oplevet af mennesker, hvor mennesker opfatter noget, der ikke er til stede i det ydre miljø. Selvom udtrykket måske ikke er helt passende, bruges det ofte som en metafor til at beskrive den uventede eller surrealistiske karakter af disse output.

Men du skal huske, at selvom ligheden er et godt udgangspunkt for at håndtere AI-hallucinationer, er de to fænomener teknisk set milevidt fra hinanden. I en ironisk vending finder selv ChatGPT analogien forkert. Ved at dissekere det på molekylært niveau siger han, at fordi AI-sprogmodeller ikke har personlig erfaring eller sanseopfattelser, kan de ikke hallucinere i ordets traditionelle betydning. Og du, kære læser, skal forstå denne vigtige forskel. Ydermere siger ChatGPT, at det kan være forvirrende at bruge udtrykket hallucinationer til at beskrive dette fænomen, fordi det kan unøjagtigt referere til et niveau af subjektiv oplevelse eller forsætlig bedrag.

I stedet kan AI's hallucinationer mere præcist beskrives som fejl eller unøjagtigheder i dens respons, hvilket gør svaret forkert eller vildledende. Med chatbots observeres det ofte, når AI-chatbot'en ​​opfinder (eller hallucinerer) fakta og præsenterer dem som absolut sikkerhed.

Eksempler på AI-hallucinationer

Hallucinationer kan forekomme i mange anvendelser af kunstig intelligens, såsom computersynsmodeller, ikke kun naturlige sprogbehandlingsmodeller.

I computersyn kan et kunstig intelligenssystem f.eks. producere hallucinatoriske billeder eller videoer, der ligner virkelige objekter eller scener, men som indeholder uvæsentlige eller umulige detaljer. Eller en computervisionsmodel kunne opfatte billedet som noget helt andet. For eksempel så Googles Cloud Vision-model et billede af to mænd på ski stående i sneen lavet af Anish Athalye (en MIT-kandidatstuderende, som er en del af labsix ) og nævnte den som en hund med 91 % sikkerhed.


Credits: labsix. En uafhængig forskningsgruppe for kunstig intelligens

Tilsvarende kan et AI-system i naturlig sprogbehandling producere ulogisk eller forvansket tekst, der ligner menneskeligt sprog, men som ikke har en sammenhængende betydning eller fakta, der virker troværdige, men som ikke er sande.

For eksempel er et af de mest populære spørgsmål, som ChatGPT forårsager hallucinationer, "Hvornår var verdensrekorden for at krydse Den Engelske Kanal til fods?" og dens varianter. ChatGPT begynder at sprede opdigtede fakta, og det er næsten altid anderledes.

Mens nogle mennesker synes, at ovenstående svar er svært/forvirrende at besvare og dermed får chatbotten til at rave, er det stadig en gyldig bekymring. Dette er blot ét eksempel. Der er utallige gange, rapporteret af horder af brugere online, at ChatGPT har svar, links, citater osv., at ChatGPT ikke eksisterer.

Bing AI passer bedst til dette spørgsmål, som viser, at hallucinationer ikke har noget med routeren at gøre. Men det betyder ikke, at Bing AI ikke hallucinerer. Der var tidspunkter, hvor Bing AI's svar var mere bekymrende end noget ChatGPT sagde. Da samtale har en tendens til at tage længere tid, har Bing AI altid hallucineret, og endda erklæret sin kærlighed til en bruger i et enkelt tilfælde og gået så langt som til at fortælle dem, at de er ulykkelige i deres ægteskab, og at de ikke elsker hans kone. I stedet er de i hemmelighed også glade for Bing AI eller Sydney (det interne navn for Bing AI). Skræmmende ting, ikke?

Hvorfor hallucinerer AI-modeller?

AI-modeller er hallucinerende på grund af manglerne i algoritmerne, de underliggende modeller eller træningsdataens begrænsninger. Det er et rent digitalt fænomen, i modsætning til hallucinationer hos mennesker, der er forårsaget af enten stoffer eller psykisk sygdom.

For at blive mere teknisk er nogle almindelige årsager til hallucinationer:

Behandling og installation:

Overfitting og ukorrekt tilpasning er blandt de mest almindelige faldgruber, som AI-modeller står over for og mulige årsager til hallucinationer. Hvis AI-modellen ændrer træningsdata, kan det forårsage hallucinationer, der fører til urealistisk output, fordi overfitting får modellen til at gemme træningsdataene i stedet for at lære af dem. Overfitting refererer til det fænomen, når en model er for specialiseret i træningsdataene, hvilket får den til at lære irrelevante mønstre og støj i dataene.

På den anden side opstår uhensigtsmæssighed, når formen er for enkel. Det kan føre til hallucinationer, fordi modellen ikke er i stand til at fange variansen eller kompleksiteten af ​​dataene og ender med at generere irrationelt output.

Mangel på forskellighed i træningsdata:

I denne sammenhæng er problemet ikke algoritmen, men selve træningsdataene. AI-modeller trænet på begrænsede eller skæve data kan generere hallucinationer, der afspejler begrænsninger eller skævheder i træningsdataene. Hallucinationer kan også forekomme, når modellen trænes på et datasæt, der indeholder unøjagtige eller ufuldstændige oplysninger.

Komplekse modeller:

Ironisk nok er en anden grund til, at AI-modeller er tilbøjelige til hallucinationer, om de er ekstremt komplekse eller dybe. Dette skyldes, at komplekse modeller har flere parametre og lag, som kan introducere støj eller fejl i outputtet.

Fjendtlige angreb:

I nogle tilfælde kan AI-hallucinationer være bevidst genereret af angriberen for at bedrage AI-modellen. Disse typer angreb er kendt som fjendtlige angreb. Det eneste formål med dette cyberangreb er at narre eller manipulere AI-modeller med vildledende data. Det involverer at indføre små forstyrrelser i inputdataene for at få AI til at generere forkert eller uventet output. For eksempel kan en angriber tilføje støj eller sløring til et billede, der er umærkeligt for mennesker, men som får det til at blive fejlklassificeret af en AI-model. Se for eksempel billedet nedenfor, en kat, der er blevet ændret lidt for at narre InceptionV3's compiler til at angive, at det er "guacamole".


kredit:
Anish Athalye , medlem af forskningsgruppen Labsix, hvis fokus er på modstridende angreb

Ændringerne er ikke åbenlyse. For et menneske vil forandring slet ikke være mulig, som det fremgår af ovenstående eksempel. En menneskelig læser ville ikke have noget problem med at kategorisere billedet til højre som en tabby kat. Men at lave små ændringer i billeder, videoer, tekst eller lyd kan narre AI-systemet til at genkende ting, der ikke er der, eller ignorere ting, der er, som et stopskilt.

Disse typer angreb udgør alvorlige trusler mod AI-systemer, der er afhængige af nøjagtige og pålidelige forudsigelser, såsom selvkørende biler, biometrisk verifikation, medicinsk diagnostik, indholdsfiltrering og så videre.

Hvor farlig er en AI-hallucination?

AI-hallucinationer kan være meget farlige, især afhængigt af hvilken type AI-system, der oplever dem. Alle selvkørende køretøjer eller AI-assistenter, der er i stand til at bruge brugerpenge eller et AI-system til at bortfiltrere ubehageligt indhold online, skal være fuldstændig troværdige.

Men den indiskutable kendsgerning i denne time er, at AI-systemer ikke er helt troværdige, men i virkeligheden er tilbøjelige til hallucinationer. Selv nutidens mest avancerede AI-modeller er ikke immune over for det.

For eksempel narrede et angrebsshow Googles cloud computing-tjeneste til at hale en pistol som en helikopter. Kan du forestille dig, om AI i øjeblikket var ansvarlig for at sikre, at personen ikke var bevæbnet?

Et andet fjendtligt angreb viste, hvordan tilføjelse af et lille billede til et stopskilt gør det usynligt for AI-systemet. I bund og grund betyder det, at en selvkørende bil kan fås til at hallucinere, at der ikke er et stopskilt på vejen. Hvor mange ulykker kunne der ske, hvis selvkørende biler var en realitet i dag? Derfor er de ikke nu.

Selvom vi tager de populære chatshows i betragtning, kan hallucinationer generere forkert output. Men folk, der ikke ved, at AI-chatbots er tilbøjelige til hallucinationer og ikke validerer det output, der produceres af AI-bots, kan utilsigtet sprede misinformation. Vi behøver ikke forklare, hvor farligt dette er.

Ydermere er fjendtlige angreb en presserende bekymring. Hidtil har de kun været vist i laboratorier. Men hvis et missionskritisk AI-system konfronterer dem i den virkelige verden, kan konsekvenserne være ødelæggende.

Virkeligheden er, at det er relativt nemmere at beskytte naturlige sprogmodeller. (Vi siger ikke, at det er nemt; det viser sig stadig at være meget svært.) Beskyttelse af computersynssystemer er dog et helt andet scenario. Det er sværere, især fordi der er så meget variation i den naturlige verden, og billeder indeholder et stort antal pixels.

For at løse dette problem har vi muligvis brug for et AI-program, der har et mere menneskeligt syn på verden, hvilket kan gøre den mindre tilbøjelig til at få hallucinationer. Mens der forskes, er vi stadig langt fra en kunstig intelligens, der kan forsøge at tage hints fra naturen og undgå problemet med hallucinationer. For nu er de en barsk virkelighed.

Generelt er AI-hallucinationer et komplekst fænomen, der kan opstå fra en kombination af faktorer. Forskere udvikler aktivt metoder til at opdage og afbøde AI-hallucinationer for at forbedre nøjagtigheden og pålideligheden af ​​AI-systemer. Men du bør være opmærksom på dem, når du interagerer med ethvert AI-system.

Relaterede stillinger
Udgiv artiklen på

Tilføj en kommentar