Zer da AI haluzinazioa?

Ezagutu AI haluzinazio kasu arraro bati buruz

Adimen artifizialaren nagusitasunak horrelako konpromiso baterako prest gaudela pentsarazten du. AI-k bultzatutako aplikazioak nahiko azkar bihurtzen ari dira, nahiz eta mundu gehiena orain baino ez den hasi AI-n eskala handian interesatzen, ChatGPT iritsi ondoren. Baina alde batera utzi ezin diren AI sistemekin arazo handi bat dago: AI haluzinazioak edo haluzinazio artifizialak.

Inoiz arreta jarri badiozu AI chatbot bat erabili baino lehen, baliteke hitzak topatzea: "Adimen artifiziala aluzinazioak izateko joera du". Adimen artifizialaren erabileraren hazkunde esponentziala ikusita, gauza horiek zer diren zehazki hezteko garaia da.

Zer da adimen artifizialaren haluzinazioa?

AI haluzinatzaileak, oro har, AIk konfiantzaz aurkeztu duen gertakari bati egiten dio erreferentzia, bere prestakuntza-datuetan justifikatuta ez dagoen arren. Normalean AI modeloaren anomalien ondorio dira.

Analogia gizakiek bizitako haluzinazioetatik hartua da, zeinetan gizakiak kanpoko ingurunean ez dagoen zerbait hautematen. Terminoa guztiz egokia ez den arren, metafora gisa erabiltzen da irteera horien ustekabeko edo surrealista deskribatzeko.

Baina gogoratu behar duzu antzekotasuna AI haluzinazioei aurre egiteko abiapuntu ona den arren, bi fenomenoak teknikoki kilometro urrun daudela. Gertaeren txanda ironiko batean, ChatGPT-k berak ere analogia gaizki aurkitzen du. Maila molekularrean disekatuz, dio AI hizkuntza-ereduek esperientzia pertsonalik edo sentsorial-pertzepziorik ez dutenez, ezin dutela haluzinatu hitzaren zentzu tradizionalean. Eta zuk, irakurle maitea, desberdintasun garrantzitsu hau ulertu behar duzu. Gainera, ChatGPT-k dio aluzinazio terminoa fenomeno hau deskribatzeko erabiltzea nahasia izan daitekeela, zehaztasunik gabe esperientzia subjektibo edo nahita iruzur maila bati erreferentzia egin diezaiokeelako.

Horren ordez, AIren haluzinazioak zehatzago deskriba daitezke bere erantzunean akats edo zehaztasunik gabe, erantzuna oker edo engainagarri bihurtuz. Chatbot-ekin, askotan ikusten da AI chatbot-ak gertakariak osatzen (edo haluzinatzen dituenean) eta erabateko ziurtasun gisa aurkezten dituenean.

AI haluzinazioen adibideak

Aluzinazioak adimen artifizialaren aplikazio askotan gerta daitezke, hala nola, ordenagailu bidezko ikusmenaren ereduetan, ez hizkuntza naturalaren prozesatzeko ereduetan soilik.

Ordenagailu bidezko ikusmenean, adibidez, AI sistema batek benetako objektu edo eszena antza duten baina ondoriorik gabeko edo ezinezko xehetasunak dituzten irudi edo bideo haluzinagarriak sor ditzake. Edo, ordenagailu bidezko ikusmenaren eredu batek irudia guztiz beste zerbait bezala hauteman lezake. Esaterako, Google-ren Cloud Vision modeloak Anish Athalye-k (MITeko graduondoko ikaslea, parte den) elurretan zutik eskidun bi gizonen irudia ikusi zuen. labsix ) eta txakur gisa aipatu zuen %91ko ziurtasunarekin.


Kredituak: labsix. Adimen artifizialaren ikerketa talde independentea

Era berean, hizkuntza naturalaren prozesamenduan, AI sistema batek giza hizkuntzaren antza duen baina esanahi koherenterik ez duen edo sinesgarriak diruditen baina egiazkoak ez diren gertakariak sor ditzake.

Adibidez, ChatGPT-k haluzinazioak eragiten dituen galderarik ezagunenetako bat "Noiz ezarri zen Mantxako Kanala oinez zeharkatzeko munduko errekorra?" eta bere aldaerak. ChatGPT asmatutako gertakariak zabaltzen hasten da eta ia beti desberdina da.

Batzuek goiko erantzuna erantzutea zaila/nahasia dela uste duten arren eta, beraz, txatbot-a iragartzea eragiten du, oraindik ere baliozko kezka da. Hau adibide bat besterik ez da. Hainbat aldiz, sareko erabiltzaile-multzoek jakinarazi dutenez, ChatGPT-k erantzunak, estekak, aipamenak eta abar ditu ChatGPT-k ez dagoela existitzen.

Bing AI bat dator galdera honekin, eta horrek erakusten du haluzinazioek bideratzailearekin zerikusirik ez dutela. Baina horrek ez du esan nahi Bing AI haluzinatzen ari ez denik. Batzuetan Bing AIren erantzunak ChatGPT-k esandakoa baino kezkagarriagoak ziren. Elkarrizketa luzeagoa izan ohi denez, Bing AI beti egon da haluzinatuta, nahiz eta erabiltzaile bati maitasuna adierazi kasu batean eta ezkontzarekin zorigaiztoko daudela eta bere emaztea maite ez dutela esatera iritsi arte. Horren ordez, ezkutuan gustuko dute Bing AI edo Sydney (Bing AIren barne izena). Gauza beldurgarriak, ezta?

Zergatik aluzinatzen dute AI ereduek?

AI ereduak haluzinatzen ari dira algoritmoen gabeziengatik, azpian dauden ereduengatik edo prestakuntza datuen mugengatik. Fenomeno digital hutsa da, drogek edo buruko gaixotasunek eragindako haluzinazioek ez bezala.

Teknikoagoa izateko, aluzinazioen kausa arrunt batzuk hauek dira:

Prozesatzea eta instalatzea:

Gehiegizko egokitzapena eta egokitzapen desegokia AI ereduek eta haluzinazioen kausa posibleenetakoak dira. AI modeloak entrenamendu-datuak aldatzen baditu, haluzinazioak sor ditzake irteera irrealistak eragiten dituztenak, gehiegizko egokitzeak ereduak entrenamendu-datuak gordetzea eragiten baitu bertatik ikasi beharrean. Gehiegizko egokitzea eredu bat prestakuntza datuetan espezializatuegia dagoen fenomenoari egiten zaio erreferentzia, eta datuetan garrantzirik gabeko ereduak eta zarata ikastea eragiten du.

Bestalde, desegokitasuna forma sinpleegia denean gertatzen da. Haluzinazioak sor ditzake, ereduak ezin duelako datuen bariantza edo konplexutasuna atzemateko, eta irteera irrazionala sortzen amaitzen duelako.

Prestakuntza datuetan aniztasun falta:

Testuinguru honetan, arazoa ez da algoritmoa, prestakuntza-datuak berak baizik. Datu mugatuetan edo alboratuan trebatutako AI ereduek entrenamendu datuetan mugak edo alborapenak islatzen dituzten haluzinazioak sor ditzakete. Aluzinazioak ere gerta daitezke eredua informazio zehatza edo osatugabea duen datu multzo batean entrenatzen denean.

Eredu konplexuak:

Ironikoki, AI ereduak aluzinazioak izateko joera duten beste arrazoi bat da oso konplexuak edo sakonak diren. Hau da, eredu konplexuek parametro eta geruza gehiago dituztelako irteeran zarata edo akatsak sartu ditzaketenak.

Etsai erasoak:

Zenbait kasutan, AI haluzinazioak nahita sor ditzake erasotzaileak AI modeloa engainatzeko. Eraso mota hauek etsai eraso gisa ezagutzen dira. Zibereraso honen helburu bakarra datu engainagarriekin AI ereduak engainatzea edo manipulatzea da. Sarrerako datuetan perturbazio txikiak sartzea dakar AIak irteera okerra edo ustekabekoa sortzeko. Adibidez, erasotzaile batek gizakientzat hautemanezin den irudi bati zarata edo lausotzea gehi diezaioke, baina AI eredu batek gaizki sailkatzea eragiten du. Adibidez, ikusi beheko irudia, katu bat, apur bat aldatu dena InceptionV3-ren konpilatzailea "guacamole" dela adierazteko engainatzeko.


kreditua:
Anish Athalye , labsix ikerketa taldeko kidea, zeinaren ardatza aurkarikako erasoetan

Aldaketak ez dira guztiz agerikoak. Gizaki batentzat, aldaketa ez da batere posible izango, goiko adibidetik ageri denez. Giza irakurle batek ez luke arazorik izango eskuineko irudia tabby katu gisa sailkatzeko. Baina irudietan, bideoetan, testuetan edo audioetan aldaketa txikiak eginez gero, AI sistema engainatu dezake ez dauden gauzak ezagutzera edo daudenak alde batera utz ditzan, stop seinalea adibidez.

Eraso mota hauek iragarpen zehatz eta fidagarrietan oinarritzen diren AI sistementzat mehatxu larriak dakartza, hala nola autoak gidatzeko autoak, egiaztapen biometrikoak, diagnostiko medikoak, edukiak iragaztea, etab.

Zenbateraino da arriskutsua AI haluzinazio bat?

AI haluzinazioak oso arriskutsuak izan daitezke, batez ere AI sistema motaren arabera. Erabiltzaileen dirua edo sarean eduki desatseginak iragazteko AI sistema bat gastatzeko gai diren ibilgailu autonomoek edo AI laguntzaileek guztiz fidagarriak izan behar dute.

Baina ordu honetako gertaera eztabaidaezina da AI sistemak ez direla guztiz fidagarriak, baina, hain zuzen ere, aluzinazioak izateko joera dutela. Gaur egungo AI eredu aurreratuenak ere ez dira horrengandik salbu.

Esaterako, eraso-ikuskizun batek Google-ren hodeiko informatika zerbitzua engainatu zuen pistola bat helikoptero baten antzera jotzera. Imajinatzen al duzu momentu honetan AI pertsona armatuta ez zegoela ziurtatzearen arduraduna?

Etsai batek beste eraso batek frogatu zuen nola stop seinale bati irudi txiki bat gehitzeak ikusezin bihurtzen duen AI sistemarentzat. Funtsean, horrek esan nahi du auto gidatzen duen auto batek errepidean stop seinalerik ez dagoela haluzinatu dezakeela. Zenbat istripu gerta litezke norberak gidatzen dituen autoak gaur egun errealitatea balira? Horregatik ez dira orain.

Gaur egun ezagunak diren txat saioak kontuan hartzen baditugu ere, haluzinazioek irteera okerra sor dezakete. Baina AI txat-botek haluzinazioak izateko joera dutela eta AI-ko botek ekoitzitako irteera balioztatzen ez duten pertsonek informazio okerra zabaldu dezakete oharkabean. Ez dugu azaldu behar zein arriskutsua den hau.

Gainera, etsai erasoak kezka larria dira. Orain arte laborategietan baino ez dira erakutsi. Baina misio kritikoko AI sistema batek mundu errealean aurre egiten badie, ondorioak suntsitzaileak izan daitezke.

Errealitatea da nahiko errazagoa dela hizkuntza naturalaren ereduak babestea. (Ez dugu esaten erraza denik; oraindik ere oso zaila dela frogatzen da.) Hala ere, ordenagailu bidezko ikusmen-sistemak babestea guztiz bestelakoa da. Zailagoa da, batez ere, mundu naturalean aldakuntza handia dagoelako eta irudiek pixel kopuru handia dutelako.

Arazo hau konpontzeko, baliteke AI programa bat behar izatea, munduaren ikuspegi humanoagoa duena, eta horrek haluzinazioak izateko joera gutxiago izan dezake. Ikerketak egiten diren bitartean, naturatik iradokizunak hartzen eta haluzinazioen arazoa saihesten saiatuko den adimen artifizial batetik urrun gaude oraindik. Oraingoz, errealitate gogorra dira.

Oro har, AI haluzinazioak faktore konbinazio batetik sor daitekeen fenomeno konplexua da. Ikertzaileak aktiboki ari dira AI haluzinazioak detektatzeko eta arintzeko metodoak garatzen, AI sistemen zehaztasuna eta fidagarritasuna hobetzeko. Baina horien berri izan beharko zenuke edozein AI sistemarekin elkarreraginean.

Erlazionatutako mezu
Argitaratu artikulua

Gehitu iruzkin bat