Çfarë është një halucinacion i AI?

Mësoni për një rast të çuditshëm të një halucinacioni të AI

Prevalenca e inteligjencës artificiale e bën njeriun të mendojë se jemi gati për një ndërmarrje të tillë. Aplikacionet e fuqizuara nga AI po bëhen standarde mjaft shpejt, edhe nëse shumica e botës vetëm tani ka filluar të interesohet për AI në një shkallë të gjerë, pas ardhjes së ChatGPT. Por ka një problem të madh me sistemet e AI që nuk mund të injorohet - halucinacionet e AI, ose halucinacionet artificiale.

Nëse i keni kushtuar ndonjëherë vëmendje nitty gritty para se të përdorni një chatbot me AI, mund të keni hasur në fjalët: “Inteligjenca artificiale është e prirur ndaj halucinacioneve”. Duke pasur parasysh rritjen eksponenciale të përdorimit të inteligjencës artificiale, është koha për të edukuar veten se cilat janë saktësisht këto gjëra.

Çfarë është një halucinacion i inteligjencës artificiale?

Një AI halucinuese, në përgjithësi, i referohet një fakti që AI e ka paraqitur me besim, edhe pse nuk justifikohet në të dhënat e saj të trajnimit. Zakonisht ato janë rezultat i anomalive në modelin e AI.

Analogjia është marrë nga halucinacionet e përjetuara nga njerëzit, në të cilat njerëzit perceptojnë diçka që nuk është e pranishme në mjedisin e jashtëm. Ndërsa termi mund të mos jetë plotësisht i përshtatshëm, ai shpesh përdoret si një metaforë për të përshkruar natyrën e papritur ose surreale të këtyre rezultateve.

Por duhet të mbani mend se ndërsa ngjashmëria është një pikënisje e mirë për trajtimin e halucinacioneve të AI, të dy fenomenet janë teknikisht milje larg njëri-tjetrit. Në një kthesë ironike të ngjarjeve, edhe vetë ChatGPT e gjen analogjinë të gabuar. Duke e ndarë atë në nivel molekular, ai thotë se për shkak se modelet e gjuhës së AI nuk kanë përvojë personale apo perceptime shqisore, ato nuk mund të halucinojnë në kuptimin tradicional të fjalës. Dhe ju, i dashur lexues, duhet ta kuptoni këtë ndryshim të rëndësishëm. Për më tepër, ChatGPT thotë se përdorimi i termit halucinacione për të përshkruar këtë fenomen mund të jetë konfuz sepse mund t'i referohet në mënyrë të pasaktë një niveli të përvojës subjektive ose mashtrimit të qëllimshëm.

Në vend të kësaj, halucinacionet e AI mund të përshkruhen më saktë si gabime ose pasaktësi në përgjigjen e saj, duke e bërë përgjigjen të pasaktë ose mashtruese. Me chatbot, vërehet shpesh kur chatbot i AI krijon (ose halucinon) fakte dhe i paraqet ato si siguri absolute.

Shembuj të halucinacioneve të AI

Halucinacionet mund të ndodhin në shumë aplikime të inteligjencës artificiale, të tilla si modelet e vizionit kompjuterik, jo vetëm modelet e përpunimit të gjuhës natyrore.

Në vizionin kompjuterik, për shembull, një sistem i AI mund të prodhojë imazhe ose video halucinative që ngjajnë me objekte ose skena reale, por që përmbajnë detaje të parëndësishme ose të pamundura. Ose, një model i vizionit kompjuterik mund ta perceptojë imazhin si diçka krejtësisht tjetër. Për shembull, modeli Cloud Vision i Google pa një imazh të dy burrave në ski që qëndronin në dëborë të bërë nga Anish Athalye (një student i diplomuar në MIT i cili është pjesë e labsix ) dhe e përmendi si qen me 91% siguri.


Kredite: labsix. Një grup i pavarur kërkimor për inteligjencën artificiale

Në mënyrë të ngjashme, në përpunimin e gjuhës natyrore, një sistem AI mund të prodhojë tekst të palogjikshëm ose të ngatërruar që i ngjan gjuhës njerëzore, por nuk ka një kuptim koherent ose fakte që duken të besueshme, por që nuk janë të vërteta.

Për shembull, një nga pyetjet më të njohura që ChatGPT shkakton halucinacione është "Kur u vendos rekordi botëror për kalimin e Kanalit Anglez në këmbë?" dhe variantet e tij. ChatGPT fillon të përhapë fakte të sajuara dhe është pothuajse gjithmonë ndryshe.

Ndërkohë që disa njerëz mendojnë se përgjigja e mësipërme është e vështirë/konfuze për t'u përgjigjur dhe kështu shkakton zhurmën e chatbot-it, ajo është ende një shqetësim i vlefshëm. Ky është vetëm një shembull. Ka raste të panumërta, të raportuara nga një mori përdoruesish në internet, që ChatGPT ka përgjigje, lidhje, citate, etj. që ChatGPT nuk ekziston.

Bing AI përshtatet më së miri me këtë pyetje, e cila tregon se halucinacionet nuk kanë asnjë lidhje me ruterin. Por kjo nuk do të thotë që Bing AI nuk ka halucinacione. Kishte raste kur përgjigjet e Bing AI ishin më shqetësuese se çdo gjë që thoshte ChatGPT. Meqenëse biseda ka tendencë të zgjasë më shumë, Bing AI ka qenë gjithmonë halucinacione, madje duke i deklaruar dashurinë e saj një përdoruesi në një rast dhe duke shkuar aq larg sa t'i thotë se nuk janë të lumtur në martesën e tyre dhe se nuk e duan gruan e tij. Në vend të kësaj, ata fshehtas e duan Bing AI, ose Sydney, (emri i brendshëm për Bing AI). Gjëra të frikshme, apo jo?

Pse modelet e AI kanë halucinacione?

Modelet e AI janë halucinacione për shkak të mangësive të algoritmeve, modeleve themelore ose kufizimeve të të dhënave të trajnimit. Është një fenomen thjesht dixhital, ndryshe nga halucinacionet tek njerëzit që shkaktohen ose nga droga ose nga sëmundjet mendore.

Për të marrë më shumë teknikë, disa shkaqe të zakonshme të halucinacioneve janë:

Përpunimi dhe instalimi:

Mbajtja dhe përshtatja jo e duhur janë ndër grackat më të zakonshme me të cilat përballen modelet e AI dhe shkaqet e mundshme të halucinacioneve. Nëse modeli i AI modifikon të dhënat e trajnimit, mund të shkaktojë halucinacione që çojnë në rezultate joreale sepse përshtatja e tepërt bën që modeli të ruajë të dhënat e trajnimit në vend që të mësojë prej tyre. Mbi përshtatja i referohet fenomenit kur një model është shumë i specializuar në të dhënat e trajnimit, duke bërë që ai të mësojë modele të parëndësishme dhe zhurmë në të dhëna.

Nga ana tjetër, papërshtatshmëria ndodh kur forma është shumë e thjeshtë. Mund të çojë në halucinacione sepse modeli nuk është në gjendje të kapë variancën ose kompleksitetin e të dhënave dhe përfundon duke gjeneruar rezultate irracionale.

Mungesa e diversitetit në të dhënat e trajnimit:

Në këtë kontekst, problemi nuk është algoritmi por vetë të dhënat e trajnimit. Modelet e AI të trajnuara mbi të dhëna të kufizuara ose të njëanshme mund të gjenerojnë halucinacione që pasqyrojnë kufizime ose paragjykime në të dhënat e trajnimit. Halucinacionet mund të ndodhin gjithashtu kur modeli trajnohet në një grup të dhënash që përmban informacion të pasaktë ose jo të plotë.

Modele komplekse:

Ironikisht, një arsye tjetër pse modelet e AI janë të prirur ndaj halucinacioneve është nëse ato janë jashtëzakonisht komplekse apo të thella. Kjo është për shkak se modelet komplekse kanë më shumë parametra dhe shtresa të cilat mund të sjellin zhurmë ose gabime në dalje.

Sulmet armiqësore:

Në disa raste, halucinacionet e AI mund të gjenerohen qëllimisht nga sulmuesi për të mashtruar modelin e AI. Këto lloj sulmesh njihen si sulme armiqësore. Qëllimi i vetëm i këtij sulmi kibernetik është të mashtrojë ose manipulojë modelet e AI me të dhëna mashtruese. Ai përfshin futjen e shqetësimeve të vogla në të dhënat hyrëse për të shkaktuar që AI të gjenerojë rezultate të pasakta ose të papritura. Për shembull, një sulmues mund të shtojë zhurmë ose turbullirë në një imazh që është i padukshëm për njerëzit, por që bën që ai të keqklasifikohet nga një model i AI. Për shembull, shihni imazhin më poshtë, një mace, e cila është modifikuar pak për të mashtruar përpiluesin e InceptionV3 që të deklarojë se është "guacamole".


krediti:
Anish Athalye , një anëtar i grupit kërkimor labsix, fokusi i të cilit është në sulmet kundërshtare

Ndryshimet nuk janë të dukshme. Për një qenie njerëzore, ndryshimi nuk do të jetë aspak i mundur, siç është evidente nga shembulli i mësipërm. Një lexues njerëzor nuk do ta kishte problem ta kategorizonte imazhin në të djathtë si një mace tabby. Por bërja e ndryshimeve të vogla në imazhe, video, tekst ose audio mund të mashtrojë sistemin e AI që të njohë gjërat që nuk janë aty ose të injorojë gjërat që janë, si një shenjë ndalimi.

Këto lloj sulmesh paraqesin kërcënime serioze për sistemet e AI që mbështeten në parashikime të sakta dhe të besueshme, si makinat që drejtojnë vetë, verifikimi biometrik, diagnostikimi mjekësor, filtrimi i përmbajtjes, etj.

Sa i rrezikshëm është një halucinacion i AI?

Halucinacionet e AI mund të jenë shumë të rrezikshme, veçanërisht në varësi të llojit të sistemit të AI që po i përjeton ato. Çdo automjet vetëdrejtues ose asistent i AI që mund të shpenzojë paratë e përdoruesit ose një sistem AI për të filtruar përmbajtje të pakëndshme në internet duhet të jetë plotësisht i besueshëm.

Por fakti i padiskutueshëm i kësaj ore është se sistemet e AI nuk janë plotësisht të besueshme, por në fakt janë të prirur ndaj halucinacioneve. Edhe modelet më të avancuara të inteligjencës artificiale të sotme nuk janë imune ndaj tij.

Për shembull, një shfaqje sulmi mashtroi shërbimin kompjuterik cloud të Google për të përdorur një armë si një helikopter. A mund ta imagjinoni nëse, për momentin, AI ishte përgjegjëse për t'u siguruar që personi të mos ishte i armatosur?

Një tjetër sulm armiqësor tregoi se si shtimi i një imazhi të vogël në një shenjë ndalimi e bën atë të padukshëm për sistemin AI. Në thelb, kjo do të thotë që një makinë vetë-drejtuese mund të bëhet për të halucinuar se nuk ka asnjë shenjë ndalimi në rrugë. Sa aksidente mund të ndodhin nëse makinat vetë-drejtuese do të ishin realitet sot? Kjo është arsyeja pse ata nuk janë tani.

Edhe nëse marrim parasysh shfaqjet aktuale të bisedave të njohura, halucinacionet mund të gjenerojnë rezultate të pasakta. Por njerëzit që nuk e dinë se chatbot-et e AI-së janë të prirur ndaj halucinacioneve dhe nuk vërtetojnë rezultatin e prodhuar nga robotët e AI, mund të përhapin pa dashje dezinformata. Nuk duhet të shpjegojmë se sa e rrezikshme është kjo.

Për më tepër, sulmet armiqësore janë një shqetësim urgjent. Deri më tani, ato janë shfaqur vetëm në laboratorë. Por nëse një sistem AI kritik për misionin përballet me ta në botën reale, pasojat mund të jenë shkatërruese.

Realiteti është se është relativisht më e lehtë për të mbrojtur modelet e gjuhës natyrore. (Nuk po themi se është e lehtë; prapëseprapë rezulton të jetë shumë e vështirë.) Megjithatë, mbrojtja e sistemeve të vizionit kompjuterik është një skenar krejtësisht i ndryshëm. Është më e vështirë veçanërisht sepse ka kaq shumë ndryshime në botën natyrore dhe imazhet përmbajnë një numër të madh pikselësh.

Për të zgjidhur këtë problem, mund të na duhet një program i AI që ka një pamje më njerëzore të botës, gjë që mund ta bëjë atë më pak të prirur ndaj halucinacioneve. Ndërkohë që po bëhen kërkime, ne jemi ende shumë larg nga një inteligjencë artificiale që mund të përpiqet të marrë sugjerime nga natyra dhe të shmangë problemin e halucinacioneve. Tani për tani, ato janë një realitet i ashpër.

Në përgjithësi, halucinacionet e AI janë një fenomen kompleks që mund të lindë nga një kombinim faktorësh. Studiuesit po zhvillojnë në mënyrë aktive metoda për zbulimin dhe zbutjen e halucinacioneve të AI për të përmirësuar saktësinë dhe besueshmërinë e sistemeve të AI. Por ju duhet të jeni të vetëdijshëm për to kur ndërveproni me çdo sistem AI.

Related posts
Publikoni artikullin në

Shto një koment