Wat is in AI hallusinaasje?

Learje oer in frjemd gefal fan in AI-hallusinaasje

De prevalens fan keunstmjittige yntelliginsje lit men tinke dat wy klear binne foar sa'n ûndernimming. AI-oandreaune applikaasjes wurde frij fluch standert, sels as it grutste part fan 'e wrâld no pas op grutte skaal belangstelling foar AI begjint, nei de komst fan ChatGPT. Mar d'r is in grut probleem mei AI-systemen dat net kin wurde negeare - AI-hallusinaasjes, as keunstmjittige hallusinaasjes.

As jo ​​​​oait oandacht hawwe jûn oan nitty gritty foardat jo in AI chatbot brûke, binne jo miskien de wurden tsjinkaam, "Keunstmjittige yntelliginsje is gefoelich foar hallusinaasjes." Sjoen de eksponinsjele ferheging fan it brûken fan keunstmjittige yntelliginsje, is it tiid om josels op te learen oer wat dizze dingen krekt binne.

Wat is in keunstmjittige yntelliginsje hallusinaasje?

In halluzinearjende AI ferwiist yn 't algemien nei in feit dat de AI mei fertrouwen hat presintearre, ek al is it net rjochtfeardige yn har trainingsgegevens. Se binne normaal it resultaat fan anomalies yn it AI-model.

De analogy is helle út hallusinaasjes dy't troch minsken ûnderfine, wêrby't minsken eat waarnimme dat net oanwêzich is yn 'e eksterne omjouwing. Hoewol de term miskien net folslein passend is, wurdt it faak brûkt as in metafoar om de ûnferwachte of surrealistyske aard fan dizze útgongen te beskriuwen.

Mar jo moatte betinke dat hoewol de oerienkomst in goed útgongspunt is foar it omgean mei AI-hallusinaasjes, de twa ferskynsels technysk milen útinoar binne. Yn in ironyske beurt fan eveneminten fynt sels ChatGPT sels de analogy ferkeard. Troch it op molekulêr nivo te dissecearjen, seit hy dat, om't AI-taalmodellen gjin persoanlike ûnderfining of sintúchlike waarnimmings hawwe, se net yn 'e tradisjonele sin fan it wurd halluzinearje kinne. En jo, bêste lêzer, moatte dit wichtige ferskil begripe. Fierder seit ChatGPT dat it brûken fan de term hallusinaasjes om dit ferskynsel te beskriuwen kin betiizjend wêze, om't it miskien ferwize kin nei in nivo fan subjektive ûnderfining of opsetlike bedrog.

Ynstee dêrfan kinne de hallusinaasjes fan 'e AI krekter wurde omskreaun as flaters of ûnkrektens yn har antwurd, wêrtroch it antwurd ferkeard of misleidend wurdt. Mei chatbots wurdt it faak waarnommen as de AI-chatbot feiten makket (of halluzinearret) en presintearret se as absolute wissichheid.

Foarbylden fan AI hallusinaasjes

Hallusinaasjes kinne foarkomme yn in protte tapassingen fan keunstmjittige yntelliginsje, lykas kompjûterfisymodellen, net allinich natuerlike taalferwurkingsmodellen.

Yn kompjûterfisy, bygelyks, kin in AI-systeem hallusinatoryske ôfbyldings of fideo's produsearje dy't lykje op echte objekten of sênes, mar befetsje inconsequential of ûnmooglike details. Of, in kompjûterfisymodel koe it byld as wat oars folslein waarnimme. Bygelyks, Google's Cloud Vision-model seach in ôfbylding fan twa manlju op ski's dy't yn 'e snie stiene makke troch Anish Athalye (in MIT-studint dy't diel útmakket fan labsix ) en neamde it as in hûn mei 91% wissichheid.


Credits: labsix. In ûnôfhinklike ûndersyksgroep foar keunstmjittige yntelliginsje

Lykas, yn natuerlike taalferwurking, kin in AI-systeem ûnlogyske of fersmoarge tekst produsearje dy't liket op minsklike taal, mar hat gjin gearhingjende betsjutting of feiten dy't leauwber lykje, mar net wier binne.

Bygelyks, ien fan 'e populêrste fragen dy't ChatGPT hallusinaasjes feroarsaket is "Wannear wie it wrâldrekord foar it oerstekken fan it Ingelske kanaal op foet set?" en syn farianten. ChatGPT begjint opmakke feiten te fersprieden en it is hast altyd oars.

Wylst guon minsken tinke dat it boppesteande antwurd lestich / betiizjend is om te beantwurdzjen en sadwaande de chatbot feroarsaakje te razen, is it noch altyd in jildige soarch. Dit is mar ien foarbyld. D'r binne ûntelbere kearen, rapporteare troch horden brûkers online, dat ChatGPT antwurden hat, keppelings, sitaten, ensfh. dat ChatGPT net bestiet.

Bing AI past it bêste by dizze fraach, dy't sjen lit dat hallusinaasjes neat hawwe mei de router. Mar dat betsjut net dat Bing AI net hallusinearret. D'r wiene tiden dat de antwurden fan Bing AI lestiger wiene dan alles wat ChatGPT sei. Sûnt konversaasje hat de neiging om langer te duorjen, hat Bing AI altyd halluzinearre, sels yn ien eksimplaar syn leafde oan in brûker ferklearje en sa fier gean om har te fertellen dat se ûngelokkich binne yn har houlik en dat se net fan syn frou hâlde. Ynstee dêrfan binne se temûk dol op Bing AI, of Sydney, (de ynterne namme foar Bing AI), ek. Scary dingen, krekt?

Wêrom halluzinearje AI-modellen?

AI-modellen halluzinearje fanwegen de tekortkomingen fan 'e algoritmen, de ûnderlizzende modellen, of de beheiningen fan' e trainingsgegevens. It is in suver digitaal ferskynsel, oars as hallusinaasjes by minsken dy't feroarsake wurde troch drugs of geastlike sykte.

Om mear technysk te wurden, binne guon mienskiplike oarsaken fan halluzinaasjes:

Ferwurking en ynstallaasje:

Overfitting en ferkearde oanpassing binne ûnder de meast foarkommende falkûlen foar AI-modellen en mooglike oarsaken fan hallusinaasjes. As it AI-model trainingsgegevens oanpast, kin it hallusinaasjes feroarsaakje dy't liede ta unrealistyske útfier, om't overfitting feroarsaket dat it model de trainingsgegevens opslaan ynstee fan derfan te learen. Overfitting ferwiist nei it ferskynsel as in model te spesjalisearre is yn 'e trainingsgegevens, wêrtroch't it irrelevante patroanen en lûd yn' e gegevens leart.

Oan 'e oare kant komt ûngeskiktens foar as de foarm te ienfâldich is. It kin liede ta hallusinaasjes om't it model de fariânsje of kompleksiteit fan 'e gegevens net kin fange, en einiget mei it generearjen fan irrasjonele útfier.

Gebrek oan ferskaat yn trainingsgegevens:

Yn dit ferbân is it probleem net it algoritme, mar de trainingsgegevens sels. AI-modellen oplaat op beheinde as partikuliere gegevens kinne hallusinaasjes generearje dy't beheiningen of foaroardielen yn 'e trainingsgegevens reflektearje. Hallusinaasjes kinne ek foarkomme as it model oplaat wurdt op in gegevensset dy't ûnkrekte of ûnfolsleine ynformaasje befettet.

Komplekse modellen:

Iroanysk genôch is in oare reden wêrom AI-modellen gefoelich binne foar hallusinaasjes oft se ekstreem kompleks of djip binne. Dit komt om't komplekse modellen mear parameters en lagen hawwe dy't lûd as flaters yn 'e útfier kinne ynfiere.

Fijannige oanfallen:

Yn guon gefallen kinne AI-hallusinaasjes bewust wurde generearre troch de oanfaller om it AI-model te ferrifeljen. Dizze soarten oanfallen wurde bekend as fijannige oanfallen. It ienige doel fan dizze cyberoanfal is om AI-modellen te ferrifeljen of te manipulearjen mei misleidende gegevens. It omfettet it yntrodusearjen fan lytse fersteuringen yn 'e ynfiergegevens om de AI ​​ûnkorrekte as ûnferwachte útfier te generearjen. Bygelyks, in oanfaller kin lûd of wazige tafoegje oan in ôfbylding dy't ûnmerkber is foar minsken, mar feroarsaket dat it ferkeard klassifisearre wurdt troch in AI-model. Sjoch bygelyks de ôfbylding hjirûnder, in kat, dy't in bytsje feroare is om de kompilator fan InceptionV3 te ferrifeljen om te sizzen dat it "guacamole" is.


kredyt:
Anish Athalye , in lid fan 'e ûndersyksgroep labsix, waans fokus is op adversariale oanfallen

De feroarings binne net glaringly dúdlik. Foar in minske sil feroaring hielendal net mooglik wêze, sa docht bliken út boppesteande foarbyld. In minsklike lêzer soe gjin probleem hawwe om it byld rjochts te kategorisearjen as in tabbykat. Mar it meitsjen fan lytse feroarings oan ôfbyldings, fideo's, tekst, as audio kin it AI-systeem ferrifelje om dingen te herkennen dy't der net binne of dingen te negearjen dy't binne, lykas in stopteken.

Dizze soarten oanfallen foarmje serieuze bedrigingen foar AI-systemen dy't fertrouwe op krekte en betroubere foarsizzingen, lykas selsridende auto's, biometryske ferifikaasje, medyske diagnostyk, ynhâldfiltering, ensfh.

Hoe gefaarlik is in AI-hallusinaasje?

AI-hallusinaasjes kinne heul gefaarlik wêze, foaral ôfhinklik fan hokker type AI-systeem se belibbet. Elke selsridende auto's as AI-assistinten dy't by steat binne brûkersjild of in AI-systeem te besteegjen om onaangename ynhâld online te filterjen, moatte folslein betrouber wêze.

Mar it ûnbestriden feit fan dit oere is dat AI-systemen net alhiel betrouber binne, mar yn feite gefoelich binne foar hallusinaasjes. Sels de meast avansearre AI-modellen fan hjoed binne der net ymmún foar.

Bygelyks, ien oanfalshow ferrifele Google's cloud computing-tsjinst om in gewear as in helikopter te efterheljen. Kinne jo jo yntinke as AI op it stuit ferantwurdlik wie om te soargjen dat de persoan net bewapene wie?

In oare fijannige oanfal demonstrearre hoe't it tafoegjen fan in lyts byld oan in stopteken it ûnsichtber makket foar it AI-systeem. Yn essinsje betsjut dit dat in selsridende auto makke wurde kin om te halluzinearjen dat der gjin stopteken op 'e dyk is. Hoefolle ûngelokken kinne barre as selsridende auto's hjoed de dei in realiteit wiene? Dêrom binne se no net.

Sels as wy rekken hâlde mei de op it stuit populêre petearshows, kinne hallusinaasjes ferkearde útfier generearje. Mar minsken dy't net witte dat AI-chatbots gefoelich binne foar hallusinaasjes en de útfier net validearje produsearre troch AI-bots, kinne ûnbedoeld ferkearde ynformaasje ferspriede. Wy hoege net út te lizzen hoe gefaarlik dit is.

Fierders binne fijannige oanfallen in driuwende soarch. Oant no ta binne se allinnich te sjen yn laboratoaria. Mar as in missy-kritysk AI-systeem har konfrontearret yn 'e echte wrâld, kinne de gefolgen ferneatigjend wêze.

De realiteit is dat it relatyf makliker is om natuerlike taalmodellen te beskermjen. (Wy sizze net dat it maklik is; it blykt noch altyd heul lestich te wêzen.) It beskermjen fan kompjûterfisysystemen is lykwols in folslein oar senario. It is dreger foaral om't d'r safolle fariaasje is yn 'e natuerlike wrâld, en ôfbyldings befetsje in grut oantal piksels.

Om dit probleem op te lossen, kinne wy ​​​​in AI-programma nedich wêze dat in mear minsklike werjefte fan 'e wrâld hat, wat it minder gefoelich kin meitsje foar hallusinaasjes. Wylst der ûndersyk dien wurdt, binne wy ​​noch in lange wei fan in keunstmjittige yntelliginsje dy't besykje kin om hintsjes út 'e natuer te nimmen en it probleem fan hallusinaasjes te ûntkommen. Foar no binne se in hurde realiteit.

Yn 't algemien binne AI-hallusinaasjes in kompleks ferskynsel dat ûntstean kin út in kombinaasje fan faktoaren. Undersikers ûntwikkelje aktyf metoaden foar it opspoaren en mitigearjen fan AI-hallusinaasjes om de krektens en betrouberens fan AI-systemen te ferbetterjen. Mar jo moatte har bewust wêze as jo ynteraksje mei elk AI-systeem.

Related posts
Publisearje it artikel op

Foegje in reaksje ta