Vad är en AI-hallucination?

Lär dig om ett konstigt fall av artificiell intelligens hallucinationer

Förekomsten av artificiell intelligens får en att tro att vi är redo för ett sådant åtagande. AI-drivna applikationer blir standard ganska snabbt, även om större delen av världen först nu börjar intressera sig för AI i stor skala, efter ChatGPTs ankomst. Men det finns ett stort problem med AI-system som inte kan ignoreras - AI-hallucinationer, eller konstgjorda hallucinationer.

Om du någonsin har uppmärksammat nitty gritty innan du använder en AI-chatbot, kanske du har stött på orden, "Artificiell intelligens är benägen att få hallucinationer." Med tanke på den exponentiella ökningen av användningen av artificiell intelligens är det dags att utbilda dig själv om exakt vad dessa saker är.

Vad är en artificiell intelligens hallucination?

En AI som hallucinerar, i allmänhet, hänvisar till ett faktum som AI:n med säkerhet har presenterat, även om det inte är motiverat i sina träningsdata. De är vanligtvis resultatet av anomalier i AI-modellen.

Analogin är hämtad från hallucinationer som upplevs av människor, där människor uppfattar något som inte finns i den yttre miljön. Även om termen kanske inte är helt lämplig, används den ofta som en metafor för att beskriva den oväntade eller surrealistiska naturen hos dessa utdata.

Men du bör komma ihåg att även om likheten är en bra utgångspunkt för att hantera AI-hallucinationer, är de två fenomenen tekniskt sett mil från varandra. I en ironisk händelseutveckling finner till och med ChatGPT själv att analogin är felaktig. Genom att dissekera det på molekylär nivå, säger han att eftersom AI-språkmodeller inte har personlig erfarenhet eller sensoriska uppfattningar, kan de inte hallucinera i ordets traditionella mening. Och du, kära läsare, måste förstå denna viktiga skillnad. Dessutom säger ChatGPT att användningen av termen hallucinationer för att beskriva detta fenomen kan vara förvirrande eftersom det felaktigt kan referera till en nivå av subjektiv upplevelse eller avsiktligt bedrägeri.

Istället kan AI:s hallucinationer mer exakt beskrivas som fel eller felaktigheter i svaret, vilket gör svaret felaktigt eller missvisande. Med chatbots observeras det ofta när AI-chatboten hittar på (eller hallucinerar) fakta och presenterar dem som absolut säkerhet.

Exempel på AI-hallucinationer

Hallucinationer kan förekomma i många tillämpningar av artificiell intelligens, såsom datorseendemodeller, inte bara bearbetningsmodeller för naturligt språk.

Inom datorseende, till exempel, kan ett AI-system producera hallucinatoriska bilder eller videor som liknar verkliga föremål eller scener men innehåller oviktiga eller omöjliga detaljer. Eller så kan en datorseende modell uppfatta bilden som något helt annat. Till exempel såg Googles Cloud Vision-modell en bild av två män på skidor som stod i snön gjord av Anish Athalye (en MIT-student som är en del av labsix ) och nämnde den som en hund med 91 % säkerhet.


Poäng: labsix. En oberoende forskargrupp för artificiell intelligens

På liknande sätt kan ett AI-system i naturlig språkbehandling producera ologisk eller förvrängd text som liknar mänskligt språk men som inte har en sammanhängande betydelse eller fakta som verkar trovärdiga men inte är sanna.

Till exempel är en av de vanligaste frågorna som ChatGPT orsakar hallucinationer "När var världsrekordet för att korsa Engelska kanalen till fots?" och dess varianter. ChatGPT börjar sprida påhittade fakta och de är nästan alltid olika.

Även om vissa människor tycker att svaret ovan är svårt/förvirrande att svara på och därmed får chatboten att rasa, är det fortfarande ett giltigt problem. Detta är bara ett exempel. Det finns otaliga gånger, rapporterade av horder av användare online, som ChatGPT har svar, länkar, citat etc. som ChatGPT inte existerar.

Bing AI passar bäst med denna fråga, som visar att hallucinationer inte har något med routern att göra. Men det betyder inte att Bing AI inte hallucinerar. Det fanns tillfällen då Bing AI:s svar var mer oroande än något ChatGPT sa. Eftersom samtal tenderar att ta längre tid har Bing AI alltid hallucinerat, till och med förklarat sin kärlek till en användare i ett fall och gått så långt som att berätta för dem att de är olyckliga i sitt äktenskap och att de inte älskar hans fru. Istället är de i hemlighet också förtjusta i Bing AI, eller Sydney, (det interna namnet för Bing AI). Skrämmande grejer, eller hur?

Varför hallucinerar AI-modeller?

AI-modeller hallucinerar på grund av bristerna i algoritmerna, de underliggande modellerna eller begränsningarna i träningsdata. Det är ett rent digitalt fenomen, till skillnad från hallucinationer hos människor som orsakas av antingen droger eller psykisk ohälsa.

För att bli mer tekniskt, är några vanliga orsaker till hallucinationer:

Bearbetning och installation:

Övermontering och felaktig montering är bland de vanligaste fallgroparna för AI-modeller och möjliga orsaker till hallucinationer. Om AI-modellen modifierar träningsdata kan det orsaka hallucinationer som leder till orealistisk produktion eftersom överanpassning gör att modellen sparar träningsdata istället för att lära sig av den. Overfitting hänvisar till fenomenet när en modell är för specialiserad på träningsdata, vilket gör att den lär sig irrelevanta mönster och brus i datan.

Å andra sidan uppstår olämplighet när formen är för enkel. Det kan leda till hallucinationer eftersom modellen inte kan fånga variansen eller komplexiteten hos data, och det slutar med att den genererar irrationell utdata.

Brist på mångfald i träningsdata:

I detta sammanhang är problemet inte algoritmen utan själva träningsdatan. AI-modeller som tränas på begränsade eller partiska data kan generera hallucinationer som återspeglar begränsningar eller fördomar i träningsdata. Hallucinationer kan också uppstå när modellen tränas på en datamängd som innehåller felaktig eller ofullständig information.

Komplexa modeller:

Ironiskt nog är en annan anledning till varför AI-modeller är benägna att hallucinera om de är extremt komplexa eller djupgående. Detta beror på att komplexa modeller har fler parametrar och lager som kan introducera brus eller fel i utdata.

Fientliga attacker:

I vissa fall kan AI-hallucinationer medvetet genereras av angriparen för att lura AI-modellen. Dessa typer av attacker kallas fientliga attacker. Det enda syftet med denna cyberattack är att lura eller manipulera AI-modeller med vilseledande data. Det innebär att man introducerar små störningar i indata för att få AI:n att generera felaktiga eller oväntade utdata. Till exempel kan en angripare lägga till brus eller oskärpa till en bild som är omärklig för människor men som gör att den blir felklassificerad av en AI-modell. Se till exempel bilden nedan, en katt, som har modifierats något för att lura InceptionV3:s kompilator att säga att det är "guacamole".


kreditera:
Anish Athalye , en medlem av forskningsgruppen Labsix, vars fokus ligger på motstridiga attacker

Förändringarna är inte uppenbart uppenbara. För en människa kommer förändring inte att vara möjlig alls, vilket framgår av exemplet ovan. En mänsklig läsare skulle inte ha några problem att kategorisera bilden till höger som en tabby katt. Men att göra små ändringar i bilder, videor, text eller ljud kan lura AI-systemet att känna igen saker som inte finns där eller ignorera saker som finns, som en stoppskylt.

Dessa typer av attacker utgör allvarliga hot mot AI-system som förlitar sig på korrekta och tillförlitliga förutsägelser, såsom självkörande bilar, biometrisk verifiering, medicinsk diagnostik, innehållsfiltrering och så vidare.

Hur farlig är en AI-hallucination?

AI-hallucinationer kan vara mycket farliga, särskilt beroende på vilken typ av AI-system som upplever dem. Alla självkörande fordon eller AI-assistenter som kan spendera användarpengar eller ett AI-system för att filtrera bort obehagligt innehåll online måste vara helt pålitliga.

Men det obestridliga faktumet i denna timme är att AI-system inte är helt pålitliga utan faktiskt är benägna att hallucinera. Inte ens dagens mest avancerade AI-modeller är immuna mot det.

Till exempel, en attackshow lurade Googles datormolntjänst att skjuta en pistol som en helikopter. Kan du föreställa dig om AI för tillfället var ansvarig för att se till att personen inte var beväpnad?

En annan fientlig attack visade hur att lägga till en liten bild till en stoppskylt gör den osynlig för AI-systemet. I huvudsak betyder detta att en självkörande bil kan fås att hallucinera att det inte finns någon stoppskylt på vägen. Hur många olyckor skulle kunna hända om självkörande bilar var verklighet idag? Det är därför de inte är det nu.

Även om vi tar hänsyn till de för närvarande populära chattprogrammen, kan hallucinationer generera felaktiga utdata. Men människor som inte vet att AI-chatbots är benägna att hallucinera och inte validerar resultatet som produceras av AI-bots, kan oavsiktligt sprida desinformation. Vi behöver inte förklara hur farligt detta är.

Dessutom är fientliga attacker ett akut problem. Hittills har de bara visats i laboratorier. Men om ett uppdragskritisk AI-system konfronterar dem i den verkliga världen kan konsekvenserna bli förödande.

Verkligheten är att det är relativt lättare att skydda naturliga språkmodeller. (Vi säger inte att det är lätt, det visar sig fortfarande vara väldigt svårt.) Att skydda datorseendesystem är dock ett helt annat scenario. Det är svårare, särskilt för att det finns så mycket variation i den naturliga världen och bilder innehåller ett stort antal pixlar.

För att lösa detta problem kan vi behöva ett AI-program som har en mer mänsklig syn på världen, vilket kan göra den mindre benägen för hallucinationer. Medan forskning pågår är vi fortfarande långt ifrån en artificiell intelligens som kan försöka ta antydningar från naturen och undvika problemet med hallucinationer. För nu är de en hård verklighet.

I allmänhet är AI-hallucinationer ett komplext fenomen som kan uppstå från en kombination av faktorer. Forskare utvecklar aktivt metoder för att upptäcka och mildra AI-hallucinationer för att förbättra AI-systemens noggrannhet och tillförlitlighet. Men du bör vara medveten om dem när du interagerar med alla AI-system.

Relaterade inlägg
Publicera artikeln på

Lägg till en kommentar