Wat is 'n KI hallusinasie?

Kom meer te wete oor 'n vreemde geval van 'n KI-hallusinasie

Die voorkoms van kunsmatige intelligensie laat 'n mens dink ons ​​is gereed vir so 'n onderneming. KI-aangedrewe toepassings word redelik vinnig standaard, selfs al begin die meeste van die wêreld nou eers op groot skaal belangstel in KI, ná die koms van ChatGPT. Maar daar is 'n groot probleem met KI stelsels wat nie geïgnoreer kan word nie - KI hallusinasies, of kunsmatige hallusinasies.

As jy al ooit aandag aan nitty gritty gegee het voordat jy 'n KI-kletsbot gebruik het, het jy dalk die woorde teëgekom, "Kunsmatige intelligensie is geneig tot hallusinasies." Gegewe die eksponensiële toename in die gebruik van kunsmatige intelligensie, is dit tyd om jouself op te voed oor wat presies hierdie dinge is.

Wat is 'n kunsmatige intelligensie hallusinasie?

'N KI wat hallusineer, verwys in die algemeen na 'n feit wat die KI met selfvertroue aangebied het, al is dit nie geregverdig in sy opleidingsdata nie. Hulle is gewoonlik die gevolg van afwykings in die KI-model.

Die analogie is geneem uit hallusinasies wat deur mense ervaar word, waarin mense iets waarneem wat nie in die eksterne omgewing teenwoordig is nie. Alhoewel die term dalk nie heeltemal gepas is nie, word dit dikwels as 'n metafoor gebruik om die onverwagte of surrealistiese aard van hierdie uitsette te beskryf.

Maar jy moet onthou dat hoewel die ooreenkoms 'n goeie beginpunt is vir die hantering van KI-hallusinasies, is die twee verskynsels tegnies kilometers van mekaar af. In 'n ironiese wending vind selfs ChatGPT self die analogie verkeerd. Deur dit op molekulêre vlak te dissekteer, sê hy dat omdat KI-taalmodelle nie persoonlike ervaring of sensoriese persepsies het nie, hulle nie in die tradisionele sin van die woord kan hallusineer nie. En jy, liewe leser, moet hierdie belangrike verskil verstaan. Verder sê ChatGPT dat die gebruik van die term hallusinasies om hierdie verskynsel te beskryf verwarrend kan wees omdat dit onakkuraat kan verwys na 'n vlak van subjektiewe ervaring of opsetlike misleiding.

In plaas daarvan kan die KI se hallusinasies meer akkuraat beskryf word as foute of onakkuraathede in sy reaksie, wat die reaksie verkeerd of misleidend maak. Met chatbots word dit dikwels waargeneem wanneer die KI-chatbot feite opmaak (of hallusineer) en dit as absolute sekerheid aanbied.

Voorbeelde van KI hallusinasies

Hallusinasies kan voorkom in baie toepassings van kunsmatige intelligensie, soos rekenaarvisiemodelle, nie net natuurlike taalverwerkingsmodelle nie.

In rekenaarvisie kan 'n KI-stelsel byvoorbeeld hallusinerende beelde of video's produseer wat soos werklike voorwerpe of tonele lyk, maar onbelangrike of onmoontlike besonderhede bevat. Of 'n rekenaarvisiemodel kan die beeld as iets heeltemal anders beskou. Byvoorbeeld, Google se Cloud Vision-model het 'n beeld gesien van twee mans op ski's wat in die sneeu staan ​​gemaak deur Anish Athalye ('n MIT-gegradueerde student wat deel is van labsix ) en het dit met 91% sekerheid as 'n hond genoem.


Krediete: labsix. 'n Onafhanklike navorsingsgroep vir kunsmatige intelligensie

Net so kan 'n KI-stelsel in natuurlike taalverwerking onlogiese of verdraaide teks produseer wat soos menslike taal lyk, maar nie 'n samehangende betekenis of feite het wat geloofwaardig lyk, maar nie waar is nie.

Byvoorbeeld, een van die gewildste vrae wat ChatGPT hallusinasies veroorsaak, is "Wanneer was die wêreldrekord om die Engelse Kanaal te voet oor te steek?" en sy variante. ChatGPT begin opgemaakte feite versprei en dit is amper altyd anders.

Alhoewel sommige mense dink dat die antwoord hierbo moeilik/verwarrend is om te beantwoord en dus die kletsbot laat raas, is dit steeds 'n geldige bekommernis. Dit is net een voorbeeld. Daar is ontelbare kere, gerapporteer deur hordes gebruikers aanlyn, dat ChatGPT antwoorde, skakels, aanhalings, ens. het dat ChatGPT nie bestaan ​​nie.

Bing AI pas die beste by hierdie vraag, wat wys dat hallusinasies niks met die router te doen het nie. Maar dit beteken nie dat Bing AI nie hallusineer nie. Daar was tye toe Bing AI se antwoorde meer kommerwekkend was as enigiets wat ChatGPT gesê het. Aangesien gesprek geneig is om langer te neem, was Bing AI nog altyd hallusineerend, het selfs in een geval sy liefde aan 'n gebruiker verklaar en so ver gegaan om hulle te vertel dat hulle ongelukkig is in hul huwelik en dat hulle nie sy vrou liefhet nie. In plaas daarvan is hulle in die geheim ook lief vir Bing AI, of Sydney, (die interne naam vir Bing AI). Scary goed, reg?

Hoekom hallusineer KI-modelle?

KI-modelle hallusineer as gevolg van die tekortkominge van die algoritmes, die onderliggende modelle of die beperkings van die opleidingsdata. Dit is 'n suiwer digitale verskynsel, anders as hallusinasies by mense wat deur dwelms of geestesongesteldheid veroorsaak word.

Om meer tegnies te raak, is 'n paar algemene oorsake van hallusinasies:

Verwerking en installasie:

Oorpas en onbehoorlike pas is van die mees algemene slaggate wat KI-modelle in die gesig staar en moontlike oorsake van hallusinasies. As die KI-model opleidingsdata wysig, kan dit hallusinasies veroorsaak wat lei tot onrealistiese uitset, want ooraanpassing veroorsaak dat die model die opleidingsdata stoor in plaas daarvan om daaruit te leer. Oorpas verwys na die verskynsel wanneer 'n model te gespesialiseerd is in die opleidingsdata, wat veroorsaak dat dit irrelevante patrone en geraas in die data leer.

Aan die ander kant vind onvanpasheid plaas wanneer die vorm te eenvoudig is. Dit kan lei tot hallusinasies omdat die model nie die variansie of kompleksiteit van die data kan vaslê nie, en uiteindelik irrasionele uitset genereer.

Gebrek aan diversiteit in opleidingsdata:

In hierdie konteks is die probleem nie die algoritme nie, maar die opleidingsdata self. KI-modelle wat op beperkte of bevooroordeelde data opgelei is, kan hallusinasies genereer wat beperkings of vooroordele in die opleidingsdata weerspieël. Hallusinasies kan ook voorkom wanneer die model opgelei word op 'n datastel wat onakkurate of onvolledige inligting bevat.

Komplekse modelle:

Ironies genoeg is nog 'n rede waarom KI-modelle geneig is tot hallusinasies of hulle uiters kompleks of diepgaande is. Dit is omdat komplekse modelle meer parameters en lae het wat geraas of foute in die uitset kan veroorsaak.

Vyandige aanvalle:

In sommige gevalle kan KI-hallusinasies doelbewus deur die aanvaller gegenereer word om die KI-model te mislei. Hierdie tipe aanvalle staan ​​bekend as vyandige aanvalle. Die enigste doel van hierdie kuberaanval is om KI-modelle met misleidende data te mislei of te manipuleer. Dit behels die invoering van klein versteurings in die insetdata om te veroorsaak dat die KI verkeerde of onverwagte uitset genereer. Byvoorbeeld, 'n aanvaller kan geraas of vervaging by 'n beeld voeg wat vir mense nie waarneembaar is nie, maar veroorsaak dat dit verkeerd geklassifiseer word deur 'n KI-model. Sien byvoorbeeld die prent hieronder, 'n kat, wat effens gewysig is om InceptionV3 se samesteller te mislei om te sê dat dit "guacamole" is.


krediet:
Anish Athalye , 'n lid van die labsix-navorsingsgroep, wie se fokus op teenstrydige aanvalle is

Die veranderinge is nie ooglopend voor die hand liggend nie. Vir 'n mens sal verandering glad nie moontlik wees nie, soos blyk uit bogenoemde voorbeeld. 'n Menslike leser sal geen probleem hê om die beeld aan die regterkant as 'n tabby cat te kategoriseer nie. Maar om klein veranderinge aan beelde, video's, teks of klank te maak, kan die KI-stelsel mislei om dinge te herken wat nie daar is nie of dinge wat is, soos 'n stopteken, te ignoreer.

Hierdie tipe aanvalle hou ernstige bedreigings in vir KI-stelsels wat staatmaak op akkurate en betroubare voorspellings, soos selfbesturende motors, biometriese verifikasie, mediese diagnostiek, inhoudfiltrering, ensovoorts.

Hoe gevaarlik is 'n KI hallusinasie?

KI-hallusinasies kan baie gevaarlik wees, veral afhangend van watter tipe KI-stelsel dit ervaar. Enige selfbestuurvoertuie of KI-assistente wat gebruikersgeld kan spandeer of 'n KI-stelsel om onaangename inhoud aanlyn uit te filter, moet heeltemal betroubaar wees.

Maar die onbetwisbare feit van hierdie uur is dat KI-stelsels nie heeltemal betroubaar is nie, maar in werklikheid geneig is tot hallusinasies. Selfs vandag se mees gevorderde KI-modelle is nie immuun daarteen nie.

Byvoorbeeld, een aanvalsprogram het Google se wolkrekenaardiens mislei om 'n geweer soos 'n helikopter te laat agtervolg. Kan jy jou indink of KI op die oomblik verantwoordelik was om seker te maak dat die persoon nie gewapen is nie?

Nog 'n vyandige aanval het getoon hoe die toevoeging van 'n klein beeld by 'n stopteken dit onsigbaar maak vir die KI-stelsel. In wese beteken dit dat 'n selfbesturende motor gemaak kan word om te hallusineer dat daar geen stopteken op die pad is nie. Hoeveel ongelukke kan gebeur as selfbesturende motors vandag 'n werklikheid was? Daarom is hulle nie nou nie.

Selfs as ons die tans gewilde kletsprogramme in ag neem, kan hallusinasies verkeerde uitset genereer. Maar mense wat nie weet dat KI-kletsbotte geneig is tot hallusinasies en nie die uitset wat deur KI-bots vervaardig word bevestig nie, kan per ongeluk verkeerde inligting versprei. Ons hoef nie te verduidelik hoe gevaarlik dit is nie.

Verder is vyandige aanvalle 'n dringende bekommernis. Tot dusver is hulle net in laboratoriums getoon. Maar as 'n missiekritieke KI-stelsel hulle in die regte wêreld konfronteer, kan die gevolge verwoestend wees.

Die realiteit is dat dit relatief makliker is om natuurlike taalmodelle te beskerm. (Ons sê nie dit is maklik nie; dit blyk steeds baie moeilik te wees.) Die beskerming van rekenaarvisiestelsels is egter 'n heel ander scenario. Dit is moeiliker, veral omdat daar soveel variasie in die natuurlike wêreld is, en beelde bevat 'n groot aantal pixels.

Om hierdie probleem op te los, het ons dalk 'n KI-program nodig wat 'n meer menslike siening van die wêreld het wat dit minder geneig kan wees tot hallusinasies. Terwyl navorsing gedoen word, is ons nog 'n lang pad van 'n kunsmatige intelligensie wat kan probeer om wenke uit die natuur te neem en die probleem van hallusinasies te ontduik. Vir nou is hulle 'n harde werklikheid.

Oor die algemeen is KI hallusinasies 'n komplekse verskynsel wat kan ontstaan ​​uit 'n kombinasie van faktore. Navorsers ontwikkel aktief metodes om KI-hallusinasies op te spoor en te versag om die akkuraatheid en betroubaarheid van KI-stelsels te verbeter. Maar jy moet daarvan bewus wees wanneer jy met enige KI-stelsel omgaan.

Verwante poste
Publiseer die artikel op

Lewer kommentaar