Halusînasyona AI-ê çi ye?

Li ser bûyerek xerîb a halusînasyona AI-ê fêr bibin

Berbelavbûna îstîxbarata çêkirî dihêle ku meriv bifikire ku em ji bo karekî weha amade ne. Serîlêdanên bi hêzdar ên AI-ê zû zû standard dibin, tewra ku piraniya cîhanê tenê nuha piştî hatina ChatGPT-ê dest bi eleqeya AI-ê di astek mezin de dike. Lê di pergalên AI-ê de pirsgirêkek mezin heye ku nayê paşguh kirin - halusînasyonên AI-ê, an halûsînasyonên çêkirî.

Ger we berê berî ku hûn chatbotek AI-ê bikar bînin bala xwe dabe ser tîrêjê, dibe ku we rastî van peyvan hatibe, "Aqilê çêkirî ber bi halusînasyonan ve diçe." Ji ber zêdebûna berbiçav a karanîna îstîxbarata çêkirî, dem e ku hûn xwe fêr bibin ka bi rastî ev tişt çi ne.

Halusînasyona îstîxbarata çêkirî çi ye?

Halusînasyonek AI-ê, bi gelemperî, rastiyek ku AI-ê bi pêbawer pêşkêşî kiriye, her çend ew di daneyên perwerdehiya xwe de ne rastdar be jî vedibêje. Ew bi gelemperî encamên anomaliyên di modela AI-ê de ne.

Analojiyek ji halusînasyonên ku ji hêla mirovan ve têne ceribandin tê girtin, ku tê de mirov tiştek ku di hawîrdora derve de tune ye, fêm dike. Digel ku ev peyv bi tevahî ne guncaw be jî, ew bi gelemperî wekî metaforek tê bikar anîn da ku xwezaya nediyar an surreal a van hilberan diyar bike.

Lê divê hûn ji bîr mekin ku her çend wekhevî ji bo mijûlbûna bi halusînasyonên AI-yê destpêkek baş e, her du diyardeyên teknîkî bi kîlometreyan ji hev dûr in. Di bûyerek îronîkî de, tewra ChatGPT bixwe jî analojiyê xelet dibîne. Ew di asta molekulî de veqetîne, ew dibêje ku ji ber ku modelên zimanê AI-ê ne xwediyê ezmûna kesane an têgihîştinên hestî ne, ew nikanin di wateya kevneşopî ya peyvê de halusîn bikin. Û hûn, xwendevanê hêja, divê hûn vê cûdahiya girîng fam bikin. Wekî din, ChatGPT dibêje ku karanîna têgîna halusînasyonan ji bo danasîna vê diyardeyê dikare tevlihev be ji ber ku dibe ku ew bi xeletî behsa astek ezmûnek subjektîf an xapandina bi mebest bike.

Di şûna wê de, halusînasyonên AI-ê bi rasttir dikarin wekî xeletî an nerastiyên di bersiva wê de werin binav kirin, ku bersivê xelet an xapînok dike. Bi chatbotan re, bi gelemperî dema ku chatbotê AI-yê rastiyan çêdike (an jî halusîn dike) tê dîtin û wan wekî gumanek bêkêmasî pêşkêş dike.

Nimûneyên halusînasyonên AI-ê

Halusînasyon dikare di gelek sepanên îstîxbarata sûnî de, wek modelên dîtina kompîturê, ne tenê modelên pêvajokirina zimanê xwezayî de çêbibin.

Mînakî, di dîtina kompîturê de, pergalek AI-ê dikare wêneyên halusînasyon an vîdyoyên ku dişibin tişt an dîmenên rastîn, lê hûrguliyên bêserûber an ne mumkin dihewîne hilberîne. An jî, modelek dîtina komputerê dikare wêneyê wekî tiştek din bi tevahî fêm bike. Mînakî, modela Cloud Vision ya Google wêneyek du zilamên li ser skiyan ên ku di berfê de radiwestin dît ku ji hêla Anish Athalye (xwendekarek mezûn a MIT-ê ku beşek e ji labsix ) û bi 91% piştrast ew wekî kûçikek binav kir.


Kredî: labsix. Komek lêkolînê ya serbixwe ji bo îstîxbarata sûnî

Bi heman rengî, di pêvajoyek zimanê xwezayî de, pergalek AI-ê dibe ku metnek nemantijî an tevlihev ku dişibihe zimanê mirovî lê ne xwediyê wateyek hevgirtî an rastiyên ku bawermend xuya dikin lê ne rast in çêbike.

Mînakî, yek ji pirsên herî populer ku ChatGPT dibe sedema halusînasyonan ev e "Kengî rekora cîhanê ya derbaskirina Kanala Englishngilîzî ya bi peyatî hate danîn?" û cureyên wê. ChatGPT dest bi belavkirina rastiyên çêkirî dike û hema hema her gav cûda ye.

Digel ku hin kes difikirin ku bersiva jorîn bersivek dijwar / tevlihev e û bi vî rengî dibe sedem ku chatbot xera bibe, ew hîn jî fikarek derbasdar e. Ev tenê mînakek e. Bêhejmar car hene, ku ji hêla girseyên bikarhênerên serhêl ve hatine ragihandin, ku ChatGPT bersiv, girêdan, vegotin, hwd hene ku ChatGPT tune.

Bing AI herî baş bi vê pirsê re têkildar e, ku nîşan dide ku halusînasyon bi routerê re tune. Lê ev nayê vê wateyê ku Bing AI ne halusînasyon e. Dem hebûn ku bersivên Bing AI ji her tiştê ku ChatGPT got xemgîntir bûn. Ji ber ku danûstendin dirêjtir dirêj dibe, Bing AI her gav halusînasyonan dike, tewra evîna xwe ji bikarhênerek re di yek meselê de eşkere dike û heya ku jê re dibêje ku ew di zewaca xwe de nerazî ne û ku ew ji jina wî hez nakin. Di şûna wan de, ew bi dizî ji Bing AI, an Sydney, (navê navxweyî ya Bing AI) jî hez dikin. Tiştên tirsnak, rast?

Çima modelên AI-ê halusîn dikin?

Modelên AI-ê ji ber kêmasiyên algorîtmayan, modelên bingehîn, an sînorkirinên daneyên perwerdehiyê halusîn dikin. Ew diyardeyek bi tenê dîjîtal e, berevajî halusînasyonên di mirovan de ku ji hêla narkotîkan an jî nexweşiya derûnî ve têne çêkirin.

Ji bo ku bêtir teknîkî bistînin, hin sedemên gelemperî yên halusinasyonê ev in:

Proseskirin û sazkirin:

Zêdebûn û guncanbûna nerast di nav kêmasiyên herî gelemperî yên ku modelên AI-yê pê re rû bi rû dimînin û sedemên mimkun ên halusînasyonê ne. Ger modela AI-ê daneyên perwerdehiyê biguhezîne, ew dikare bibe sedema halusînasyonên ku rê li ber encamek nerealîst digirin ji ber ku zêde guncan dibe sedem ku model li şûna fêrbûna ji wê daneyên perwerdehiyê hilîne. Zêdebûn bi diyardeyê vedibêje dema ku modelek di daneyên perwerdehiyê de pir pispor e, dibe sedem ku ew di daneyan de qalibên negirêdayî û dengek fêr bibe.

Ji hêla din ve, dema ku form pir hêsan be, neguncahî çêdibe. Ew dikare bibe sedema halusînasyonan ji ber ku model nikare cûdabûn an tevliheviya daneyan bigire, û di encamê de encamek bêaqil çêbike.

Di daneyên perwerdehiyê de nebûna cihêrengiyê:

Di vê çarçoveyê de, pirsgirêk ne algorîtm lê daneyên perwerdehiyê bixwe ye. Modelên AI-ê yên ku li ser daneyên tixûbdar an bi alîgir hatine perwerde kirin dibe ku halusînasyonên ku di daneya perwerdehiyê de sînorkirin an biaqilan nîşan didin biafirînin. Di heman demê de dema ku model li ser berhevokek daneyê ya ku agahdariya nerast an netemam dihewîne tê perwerde kirin, halusînasyon jî dibe.

Modelên tevlihev:

Bi awayekî îronîkî, sedemek din ku modelên AI-ê meyldar in ji halusînasyonan re ev e ku ew pir tevlihev an kûr in. Ev ji ber ku modelên tevlihev xwedan pîvan û qattir in ku dikarin deng an xeletiyan di encam de destnîşan bikin.

Êrîşên dijmin:

Di hin rewşan de, dibe ku halusînasyonên AI-ê bi qestî ji hêla êrîşker ve werin çêkirin da ku modela AI-ê bixapînin. Ev cure êrîş weke êrîşên dijminane tên zanîn. Armanca yekane ya vê êrîşa sîber ew e ku modelên AI-ê bi daneyên xapînok bixapîne an manîpule bike. Ew danasîna tevliheviyên piçûk di daneyên têketinê de vedihewîne da ku bibe sedema ku AI-ê hilberek nerast an nediyar çêbike. Mînakî, êrîşkarek dibe ku dengek an şorbûnê li wêneyek ku ji mirovan re nayê dîtin lê dibe sedem ku ew ji hêla modelek AI-ê ve xelet were dabeş kirin zêde bike. Mînakî, li wêneya jêrîn binêre, pisîkek, ku hinekî hatî guheztin da ku berhevkarê InceptionV3 bixapîne ku ew "guacamole" ye.


krêdî:
Anish Athalye , endamê koma lêkolînê ya labsix, ku bala wê li ser êrîşên dijber e

Guhertin bi zelalî ne diyar in. Ji bo mirovekî, wek ku ji nimûneya jorîn diyar e, guhertin dê qet ne mumkun be. Xwendevanek mirovî dê çu pirsgirêk tunebe ku wêneyê li rastê wekî pisîkek tablo kategorîze bike. Lê çêkirina guheztinên piçûk di wêne, vîdyoy, nivîs, an deng de dikare pergala AI-ê bixapîne da ku tiştên ku ne li wir in nas bike an jî tiştên ku hene paşguh bike, mîna nîşanek rawestanê.

Van celeb êrîşan xetereyên ciddî li ser pergalên AI-yê yên ku xwe dispêrin pêşbîniyên rast û pêbawer, mîna otomobîlên xwe-ajotinê, verastkirina biyometrîk, tespîtkirina bijîjkî, fîlterkirina naverokê, û hwd.

Halusînasyona AI-ê çiqas xeternak e?

Halusînasyonên AI-ê dikarin pir xeternak bin, nemaze li gorî kîjan celeb pergala AI-yê wan diceribîne. Her wesayitên xwe-ajotinê an arîkarên AI-ê yên ku karibin pereyên bikarhêner an pergalek AI-yê xerc bikin da ku naveroka ne xweş serhêl fîltre bikin, divê bi tevahî pêbawer bin.

Lê rastiya vê saetê ya bê guman ev e ku pergalên AI-ê bi tevahî ne pêbawer in lê, bi rastî, meyla halusînasyonan in. Tewra modelên herî pêşkeftî yên AI-ê yên îroyîn jî ji wê bêpar in.

Mînakî, pêşandanek êrişê karûbarê hesabkirina ewr a Google xap kir ku çekek mîna helîkopterê bişopîne. Ma hûn dikarin xeyal bikin ku, di vê gavê de, AI berpirsiyar bû ku piştrast bike ku ew kes ne çekdar bû?

Êrîşek din a dijmin nîşan da ku çawa zêdekirina wêneyek piçûk li nîşanek rawestanê wê ji pergala AI-ê re nayê dîtin. Di bingeh de, ev tê vê wateyê ku otomobîlek xwe-ajotinê dikare were çêkirin ku halusîn bike ku li ser rê nîşanek rawestandinê tune. Ger otomobîlên xwe-ajotinê îro rastiyek bûna çend qeza dikaribû biqewimin? Ji ber vê yekê ew niha ne.

Tewra ku em pêşandanên sohbetê yên heyî yên populer bihesibînin jî, halusînasyon dikare encamek nerast çêbike. Lê kesên ku nizanin ku chatbotên AI-ê mêldarê halusînasyonan in û hilberîna ku ji hêla botên AI-ê ve hatî hilberandin erê nakin, dikarin bi nezanî agahdariya xelet belav bikin. Ne hewce ye ku em rave bikin ka ev çiqas xeternak e.

Wekî din, êrîşên dijminane xemgîniyek giran e. Heya nuha, ew tenê di laboratîfan de hatine destnîşan kirin. Lê heke pergalek AI-krîtîk a mîsyonê di cîhana rastîn de bi wan re rû bi rû bimîne, dibe ku encam wêranker bin.

Rastî ev e ku parastina modelên zimanê xwezayî bi nisbî hêsantir e. (Em nabêjin ku ew hêsan e; dîsa jî diyar dike ku ew pir dijwar e.) Lêbelê, parastina pergalên dîtina komputerê senaryoyek bi tevahî cûda ye. Zehmettir e, nemaze ji ber ku di cîhana xwezayî de pir cûdahî heye, û wêne hejmareke mezin a pixelan dihewîne.

Ji bo çareserkirina vê pirsgirêkê, dibe ku em hewceyê bernameyek AI-ê ya ku xwedan nêrînek mirovî ya cîhanê ye ku dikare wê kêmtir bi halusînasyonan bike. Dema ku lêkolîn têne kirin, em hîn jî rêyek dûr ji îstîxbaratek çêkirî ya ku dikare hewl bide îşaretan ji xwezayê bigire û ji pirsgirêka halusînasyonan dûr bixe, dûr in. Heya nuha, ew rastiyek dijwar in.

Bi gelemperî, halusînasyonên AI-ê fenomenek tevlihev e ku dikare ji tevliheviya faktoran derkeve. Lekolînwan bi awayekî aktîf rêbazên ji bo tespîtkirin û sivikkirina halusînasyona AI-yê pêş dixin da ku rastbûn û pêbaweriya pergalên AI-ê baştir bikin. Lê divê hûn ji wan haydar bin dema ku bi her pergalek AI-ê re têkilî daynin.

Mesajên peywendîdar
Gotarê li ser biweşînin

Addîroveyek zêde bikin