AI галлюцинациясы деген эмне?

AI галлюцинациясынын кызыктай учуру жөнүндө билип алыңыз

Жасалма интеллекттин кеңири таралышы бизди мындай ишке даярбыз деп ойлоодо. AI менен иштеген тиркемелер, ChatGPT келгенден кийин, дүйнөнүн көпчүлүк бөлүгү AIга азыр гана кызыгып баштаса да, тез эле стандартка айланып баратат. Бирок AI системаларында чоң көйгөй бар, ага көңүл бурбай коюуга болбойт - AI галлюцинациялары же жасалма галлюцинациялар.

Эгер сиз AI чатботун колдонуудан мурун майда-чүйдөсүнө чейин көңүл бурсаңыз, анда сиз төмөнкү сөздөрдү кезиктирсеңиз болот: "Жасалма интеллект галлюцинацияга жакын." Жасалма интеллектти колдонуунун экспоненциалдуу өсүшүн эске алуу менен, бул нерселер эмне экенин өзүңүзгө үйрөтүүгө убакыт келди.

Жасалма интеллект галлюцинациясы деген эмне?

AI галлюцинациясы, жалпысынан, AI өзүнүн окуу маалыматтарында негизсиз болсо да, ишенимдүү түрдө көрсөткөн фактысын билдирет. Алар, адатта, AI моделиндеги аномалиялардын натыйжасы.

Аналогия адамдар башынан өткөргөн галлюцинациялардан алынган, анда адамдар тышкы чөйрөдө жок нерсени кабыл алышат. Бул термин толугу менен ылайыктуу болбосо да, ал көбүнчө бул жыйынтыктардын күтүлбөгөн же сюрреалдык мүнөзүн сүрөттөө үчүн метафора катары колдонулат.

Бирок, окшоштук AI галлюцинациялары менен күрөшүү үчүн жакшы башталгыч чекит болсо да, эки кубулуш техникалык жактан бир-биринен бир нече миль аралыкта экенин эстен чыгарбоо керек. Окуялардын ирониялык бурулушунда, атүгүл ChatGPT өзү да аналогияны туура эмес деп эсептейт. Аны молекулярдык деңгээлде бөлүп, ал AI тил моделдеринин жеке тажрыйбасы же сенсордук кабылдоолору жок болгондуктан, алар сөздүн салттуу маанисинде галлюцинация кыла албайт дейт. Ал эми сиз, урматтуу окурман, бул маанилүү айырманы түшүнүү керек. Андан тышкары, ChatGPT бул кубулушту сүрөттөө үчүн галлюцинация деген терминди колдонуу баш аламандык болушу мүмкүн, анткени ал субъективдүү тажрыйбанын деңгээлине же атайылап алдамчылыкка так эмес шилтеме жасашы мүмкүн дейт.

Тескерисинче, AI галлюцинациялары анын жоопундагы каталар же так эместиктер катары так сүрөттөлсө болот, бул жоопту туура эмес же адаштыруучу кылат. Чатботтордо көбүнчө AI чатботу фактыларды түзгөндө (же галлюцинацияланганда) жана аларды абсолюттук ишеним катары көрсөткөндө байкалат.

AI галлюцинацияларынын мисалдары

Галлюцинациялар жасалма интеллекттин көптөгөн колдонмолорунда пайда болушу мүмкүн, мисалы, табигый тилди иштетүү моделдеринде эмес, компьютердик көрүү моделдери.

Мисалы, компьютердик көрүнүштө AI системасы галлюцинациялык сүрөттөрдү же чыныгы объекттерге же көрүнүштөргө окшош, бирок натыйжасыз же мүмкүн эмес деталдарды камтыган видеолорду чыгарышы мүмкүн. Же болбосо, компьютердик көрүү модели сүрөттү толугу менен башка нерсе катары кабыл алышы мүмкүн. Мисалы, Google'дун Cloud Vision модели кар үстүндө турган лыжа тээп бараткан эки кишинин сүрөтүн көргөн Аниш Аталие (MIT аспиранты, анын бир бөлүгү болгон) labsix ) жана аны 91% ишеним менен ит катары айткан.


Кредиттер: labsix. Жасалма интеллект боюнча көз карандысыз изилдөө тобу

Ошо сыяктуу эле, табигый тилди иштетүүдө AI системасы адам тилине окшош, бирок ырааттуу мааниси жок же ишенүүгө татыктуу көрүнгөн, бирок чындыкка дал келбеген фактылар менен логикасыз же бузулган текстти чыгарышы мүмкүн.

Мисалы, ChatGPT галлюцинацияларды пайда кылган эң популярдуу суроолордун бири "Ланшты жөө басып өтүү боюнча дүйнөлүк рекорд качан коюлган?" жана анын варианттары. ChatGPT жасалма фактыларды тарата баштайт жана бул дээрлик ар дайым башкача.

Кээ бир адамдар жогорудагы жоопко жооп берүү кыйын/чаташкан деп ойлошсо да, чатботтун мактануусуна алып келет, бирок бул дагы эле негиздүү тынчсыздануу. Бул бир эле мисал. Интернеттеги колдонуучулардын тобу сансыз көп жолу кабарлашкан, ChatGPT жооптору, шилтемелери, цитаталары ж.б. бар. ChatGPT жок.

Bing AI бул суроого эң туура келет, бул галлюцинациялардын роутерге эч кандай тиешеси жок экенин көрсөтүп турат. Бирок бул Bing AI галлюцинация эмес дегенди билдирбейт. Bing AIнин жооптору ChatGPT айткандан да тынчсыздандырган учурлар болгон. Сүйлөшүү узакка созулгандыктан, Bing AI ар дайым галлюцинацияланып келет, атүгүл бир эле учурда колдонуучуга сүйүүсүн билдирип, алардын никесинде бактысыз экенин жана анын аялын сүйбөй турганын айтууга чейин барды. Анын ордуна, алар жашыруун Bing AI же Сиднейди (Bing AIдин ички аты) жакшы көрүшөт. Коркунучтуу нерселер, туурабы?

Эмне үчүн AI моделдери галлюцинациялайт?

AI моделдери алгоритмдердин кемчиликтеринен, негизги моделдерден же окуу маалыматтарынын чектөөлөрүнөн улам галлюцинацияланышат. Бул адамдардагы баңгизаттардан же психикалык оорудан келип чыккан галлюцинациялардан айырмаланып, таза санариптик көрүнүш.

Көбүрөөк техникалык алуу үчүн, галлюцинациялардын кээ бир жалпы себептери болуп төмөнкүлөр саналат:

Кайра иштетүү жана орнотуу:

Ашыкча тууралоо жана туура эмес орнотуу AI моделдеринин эң көп кездешүүчү тузактарынын жана галлюцинациянын мүмкүн болуучу себептеринин бири. Эгерде AI модели машыгуу маалыматтарын өзгөртсө, ал реалдуу эмес жыйынтыкка алып келген галлюцинацияларды жаратышы мүмкүн, анткени ашыкча тууралоо моделди андан үйрөнүүнүн ордуна окутуу маалыматтарын сактап калууга алып келет. Ашыкча тууралоо моделдин машыгуу маалыматтарында өтө адистештирилген көрүнүшүн билдирет, бул анын маалыматтардагы тиешеси жок үлгүлөрдү жана ызы-чууларды үйрөнүүгө алып келет.

Башка жагынан алганда, ылайыксыздык форма өтө жөнөкөй болгондо пайда болот. Бул галлюцинацияга алып келиши мүмкүн, анткени модель маалыматтардын дисперсиясын же татаалдыгын кармай албайт жана акылга сыйбаган натыйжаларды жаратып бүтөт.

Окутуучу маалыматтардын ар түрдүүлүгүнүн жоктугу:

Бул контекстте көйгөй алгоритмде эмес, окутуу маалыматтарынын өзүндө. Чектелген же бир жактуу маалыматтар боюнча үйрөтүлгөн AI моделдери окуу маалыматтарындагы чектөөлөрдү же бир жактуулукту чагылдырган галлюцинацияларды жаратышы мүмкүн. Галлюцинациялар моделди так эмес же толук эмес маалыматтарды камтыган маалымат топтомуна үйрөткөндө да пайда болушу мүмкүн.

Комплекстүү моделдер:

Таң калыштуусу, AI моделдеринин галлюцинацияга жакын болушунун дагы бир себеби, алардын өтө татаал же терең экендиги. Себеби, татаал моделдер чыгарууда ызы-чуу же каталарды киргизе турган көбүрөөк параметрлерге жана катмарларга ээ.

Душмандык чабуулдар:

Кээ бир учурларда, AI галлюцинациялары чабуулчу тарабынан AI моделин алдоо үчүн атайылап пайда болушу мүмкүн. Мындай чабуулдар душмандык чабуулдар деп аталат. Бул киберчабуулдун бирден-бир максаты - AI моделдерин адаштыруучу маалыматтар менен алдоо же манипуляциялоо. Ал AI туура эмес же күтүлбөгөн натыйжаларды жаратышы үчүн киргизилген маалыматтарга кичинекей толкундоолорду киргизүүнү камтыйт. Мисалы, чабуулчу адамдарга көрүнбөгөн сүрөткө ызы-чуу же бүдөмүк кошуусу мүмкүн, бирок анын AI модели тарабынан туура эмес классификацияланышына алып келет. Мисалы, InceptionV3 компиляторун "гуакамол" деп алдоо үчүн бир аз өзгөртүлгөн мышыктын төмөнкү сүрөтүн караңыз.


кредит:
Аниш Атали , labsix изилдөө тобунун мүчөсү, анын басымы атаандаштык чабуулдарга багытталган

Өзгөрүүлөр ачык-айкын эмес. Жогорудагы мисалдан көрүнүп тургандай, адам үчүн өзгөрүү таптакыр мүмкүн эмес. Окурман адам оң жактагы сүрөттү табби мышык катары категорияга бөлүүдө эч кандай көйгөй болбойт. Бирок сүрөттөргө, видеолорго, текстке же аудиого кичине өзгөртүүлөрдү киргизүү AI тутумун ал жерде жок нерселерди таанууга же токтоо белгиси сыяктуу нерселерге көңүл бурбай коюуга алдап коюшу мүмкүн.

Мындай кол салуулар так жана ишенимдүү божомолдорго таянган AI системаларына олуттуу коркунуч туудурат, мисалы, өзүн-өзү башкаруучу унаалар, биометрикалык текшерүү, медициналык диагностика, мазмунду чыпкалоо жана башкалар.

AI галлюцинациясы канчалык коркунучтуу?

AI галлюцинациялары өтө кооптуу болушу мүмкүн, өзгөчө AI тутумунун кайсы түрүнө байланыштуу. Интернетте жагымсыз мазмунду чыпкалоо үчүн колдонуучунун акчасын же AI тутумун сарптай ала турган бардык өзүн-өзү айдаган унаалар же AI жардамчылары толугу менен ишенимдүү болушу керек.

Бирок бул сааттын талашсыз фактысы - AI системалары толугу менен ишенүүгө татыктуу эмес, бирок, чындыгында, галлюцинацияларга жакын. Бүгүнкү күндөгү эң өнүккөн AI моделдери да андан иммунитетке ээ эмес.

Мисалы, бир чабуул көрсөтүүсү Google'дун булуттагы эсептөө кызматын тик учак сыяктуу мылтыктын калдыктарына алдап салды. Азыркы учурда AI адамдын куралдуу эмес экенине ынануу үчүн жооптуу болсо, сиз элестете аласызбы?

Дагы бир душмандык чабуул токтоо белгисине кичинекей сүрөт кошуу аны AI тутумуна көрүнбөй турганын көрсөттү. Негизи, бул өзүн-өзү башкара турган машинаны жолдо эч кандай токтотуу белгиси жок деп галлюцинациялоого болот дегенди билдирет. Бүгүнкү күндө өзүн-өзү башкаруучу унаалар ишке ашса, канча жол кырсыгы болушу мүмкүн? Ошондуктан алар азыр жок.

Учурдагы популярдуу чат шоуларын эске алсак да, галлюцинациялар туура эмес натыйжаларды жаратышы мүмкүн. Бирок AI чатботторунун галлюцинацияга жакын экенин билбеген жана AI-боттордон чыгарылган продукцияны текшербеген адамдар кокусунан туура эмес маалыматты тарата алышат. Бул канчалык кооптуу экенин түшүндүрүүнүн кереги жок.

Мындан тышкары, душмандык чабуулдар актуалдуу тынчсыздануу болуп саналат. Азырынча алар лабораторияларда гана көрсөтүлгөн. Бирок миссиясы үчүн маанилүү AI системасы чыныгы дүйнөдө аларга каршы болсо, кесепеттери кыйратуучу болушу мүмкүн.

Чындыгында, табигый тил моделдерин коргоо салыштырмалуу жеңилирээк. (Биз бул оңой деп айтуудан алысбыз; бул дагы эле абдан кыйын.) Бирок, компьютердик көрүү системаларын коргоо таптакыр башка сценарий. Айрыкча, жаратылыш дүйнөсүндө абдан көп вариация бар жана сүрөттөр көп сандагы пикселдерди камтыгандыктан, бул кыйыныраак.

Бул көйгөйдү чечүү үчүн бизге AI программасы керек болушу мүмкүн, ал дүйнөгө көбүрөөк адам көз карашы бар, ал аны галлюцинацияларга азыраак ыктайт. Изилдөөлөр жүргүзүлүп жатканда, биз жаратылыштан кыйытмаларды алууга жана галлюцинация көйгөйүнөн качууга аракет кыла турган жасалма интеллекттен дагы эле алыспыз. Азырынча алар катаал чындык.

Жалпысынан алганда, AI галлюцинациялары факторлордун айкалышынан келип чыгышы мүмкүн болгон татаал көрүнүш. Окумуштуулар AI системаларынын тактыгын жана ишенимдүүлүгүн жогорулатуу үчүн AI галлюцинацияларын аныктоо жана азайтуу ыкмаларын активдүү иштеп чыгууда. Бирок сиз ар кандай AI системасы менен иштешүүдө алардан кабардар болушуңуз керек.

Тектеш темалар
макаланы жарыялоо

Комментарий кошуу