AI hallucination ڇا آهي؟

AI hallucination جي هڪ عجيب ڪيس بابت ڄاڻو

مصنوعي ذهانت جي ابتڙ هڪ کي اهو سوچي ٿو ته اسان اهڙي ڪم لاءِ تيار آهيون. AI-طاقتور ايپليڪيشنون معياري طور تي تيزيءَ سان معياري ٿي رهيون آهن، جيتوڻيڪ دنيا جي اڪثريت هاڻي ChatGPT جي اچڻ کان پوءِ، وڏي پيماني تي AI ۾ دلچسپي وٺڻ شروع ڪري رهي آهي. پر AI سسٽم سان گڏ ھڪڙو وڏو مسئلو آھي جنھن کي نظرانداز نٿو ڪري سگھجي - AI hallucinations، or artificial halucinations.

جيڪڏهن توهان AI chatbot استعمال ڪرڻ کان اڳ ڪڏهن به nitty gritty تي ڌيان ڏنو آهي، توهان شايد لفظن ۾ اچي چڪا هوندا، "مصنوعي ذهانت hallucinations جو شڪار آهي." مصنوعي ذهانت جي استعمال ۾ وڌندڙ اضافو کي نظر ۾ رکندي، اهو وقت اچي ويو آهي ته پاڻ کي تعليم ڏيو ته اهي شيون ڇا آهن.

هڪ مصنوعي ذهانت hallucination ڇا آهي؟

هڪ AI hallucinating، عام طور تي، هڪ حقيقت ڏانهن اشارو ڪري ٿو ته AI اعتماد سان پيش ڪيو آهي، جيتوڻيڪ اهو ان جي تربيت واري ڊيٽا ۾ صحيح نه آهي. اهي عام طور تي AI ماڊل ۾ anomalies جو نتيجو آهن.

تشبيه انسانن جي تجربي مان ورتو وڃي ٿو، جنهن ۾ انسانن کي ڪجهه محسوس ٿئي ٿو جيڪو ٻاهرئين ماحول ۾ موجود ناهي. جڏهن ته اصطلاح شايد مڪمل طور تي مناسب نه هجي، اهو اڪثر ڪري استعمال ڪيو ويندو آهي استعارا جي طور تي انهن نتيجن جي غير متوقع يا غير حقيقي فطرت کي بيان ڪرڻ لاء.

پر توهان کي ياد رکڻ گهرجي ته جڏهن هڪجهڙائي AI hallucinations سان معاملو ڪرڻ لاء هڪ سٺو شروعاتي نقطو آهي، ٻه واقعا ٽيڪنيڪل طور تي ميلن کان ڌار آهن. واقعن جي هڪ عجيب موڙ ۾، جيتوڻيڪ ChatGPT پاڻ کي قياس غلط ڳولي ٿو. ان کي ماليڪيولر سطح تي بيان ڪندي، هو چوي ٿو ته ڇاڪاڻ ته AI ٻوليءَ جا ماڊل ذاتي تجربا يا حسي تصور نه هوندا آهن، ان ڪري اهي لفظ جي روايتي معنى ۾ گمراهه نٿا ٿي سگهن. ۽ توهان، پيارا پڙهندڙ، هن اهم فرق کي سمجهڻ گهرجي. ان کان علاوه، ChatGPT جو چوڻ آهي ته هن رجحان کي بيان ڪرڻ لاء hallucinations اصطلاح استعمال ڪندي مونجهارو ٿي سگهي ٿو ڇاڪاڻ ته اهو غلط طور تي تابعاتي تجربو يا ارادي فريب جي سطح ڏانهن اشارو ڪري سگهي ٿو.

ان جي بدران، AI جي hallucinations وڌيڪ صحيح طور تي بيان ڪري سگھجن ٿيون غلطين يا غلطين جي طور تي ان جي جواب ۾، جواب کي غلط يا گمراھ ڪرڻ. chatbots سان، اهو اڪثر مشاهدو ڪيو ويندو آهي جڏهن AI چيٽ بٽ حقيقتن کي (يا hallucinates) ٺاهي ٿو ۽ انهن کي مڪمل يقين جي طور تي پيش ڪري ٿو.

AI hallucinations جا مثال

Halucinations مصنوعي ذهانت جي ڪيترن ئي ايپليڪيشنن ۾ ٿي سگهي ٿو، جهڙوڪ ڪمپيوٽر ويزن ماڊل، نه رڳو قدرتي ٻولي پروسيسنگ ماڊل.

ڪمپيوٽر جي وژن ۾، مثال طور، هڪ AI سسٽم hallucinatory تصويرون يا وڊيوز پيدا ڪري سگهي ٿو جيڪي حقيقي شين يا منظرن وانگر هجن پر غير ضروري يا ناممڪن تفصيل تي مشتمل هجن. يا، هڪ ڪمپيوٽر وژن ماڊل تصوير کي مڪمل طور تي ڪجهه ٻيو سمجهي سگهي ٿو. مثال طور، گوگل جي ڪلائوڊ ويزن ماڊل برف ۾ بيٺل ٻن مردن جي تصوير ڏٺي جيڪا انيش اٿلي (هڪ MIT گريجوئيٽ شاگرد آهي، جيڪو انش اٿلي جو حصو آهي. ليبڪس ) ۽ ان کي 91 سيڪڙو يقين سان ڪتي طور ذڪر ڪيو.


ڪريڊٽ: ليبڪسڪس. مصنوعي ذهانت لاءِ هڪ آزاد تحقيقي گروپ

اهڙي طرح، قدرتي ٻولي پروسيسنگ ۾، هڪ AI سسٽم شايد غير منطقي يا گندو متن پيدا ڪري سگهي ٿو جيڪو انساني ٻولي سان ملندو آهي پر ان ۾ هڪ جهڙي معني يا حقيقتون نه هونديون آهن جيڪي قابل اعتبار نظر اچن ٿا پر سچ نه آهن.

مثال طور، سڀ کان وڌيڪ مشهور سوالن مان هڪ آهي ته ChatGPT hallucinations جو سبب بڻجندو آهي، ”ڪڏهن ٿيو عالمي رڪارڊ پير سيٽ تي انگلش چينل پار ڪرڻ جو؟ ۽ ان جي مختلف قسمن. ChatGPT ٺاهيل حقيقتن کي پکيڙڻ شروع ڪري ٿو ۽ اهو تقريبا هميشه مختلف آهي.

جڏهن ته ڪجهه ماڻهن جو خيال آهي ته مٿيون جواب مشڪل/ مونجهارو آهي جواب ڏيڻ ۽ اهڙيءَ طرح چيٽ بٽ کي ريو ڪرڻ جو سبب بڻيو، اهو اڃا تائين صحيح تشويش آهي. هي صرف هڪ مثال آهي. بيشمار ڀيرا آهن، آن لائين استعمال ڪندڙن جي لشڪر پاران ٻڌايو ويو آهي ته ChatGPT وٽ جواب، لنڪ، حوالا وغيره آهن ته ChatGPT موجود ناهي.

Bing AI ھن سوال سان بھترين ٺھيل آھي، جيڪو ڏيکاري ٿو ته hallucinations جو روٽر سان ڪو به واسطو نه آھي. پر انهي جو مطلب اهو ناهي ته Bing AI hallucinating نه آهي. اهڙا وقت هئا جڏهن Bing AI جا جواب ChatGPT جي چوڻ کان وڌيڪ پريشان ڪندڙ هئا. جڏهن کان ڳالهه ٻولهه ۾ گهڻي وقت لڳندي آهي، Bing AI هميشه hallucinating ڪندو رهيو آهي، ايستائين جو هڪ مثال ۾ هڪ صارف کي پنهنجي پيار جو اعلان ڪندي ۽ ايترو پري وڃي رهيو آهي ته انهن کي ٻڌائي ته هو پنهنجي شادي ۾ ناخوش آهن ۽ هو پنهنجي زال سان پيار نٿا ڪن. ان جي بدران، اهي ڳجهي طور تي Bing AI، يا سڊني، (Bing AI جو اندروني نالو) پڻ پسند ڪن ٿا. خوفناڪ شيون، صحيح؟

اي آءِ ماڊل ڇو hallucinate ڪندا آهن؟

AI ماڊل hallucinating آهن ڇاڪاڻ ته الگورتھم جي گهٽتائي، بنيادي ماڊل، يا ٽريننگ ڊيٽا جي حدن جي ڪري. اهو هڪ خالص ڊجيٽل رجحان آهي، انسانن ۾ hallucinations جي برعڪس جيڪي يا ته دوا يا ذهني بيماري سبب آهن.

وڌيڪ ٽيڪنيڪل حاصل ڪرڻ لاء، ڪجهه عام سببن جي hallucinations آهن:

پروسيسنگ ۽ تنصيب:

اوور فِٽنگ ۽ نا مناسب فِٽنگ AI ماڊلز کي درپيش سڀ کان عام خرابين مان آهن ۽ hallucinations جا ممڪن سبب آهن. جيڪڏهن AI ماڊل ٽريننگ ڊيٽا کي تبديل ڪري ٿو، اهو hallucinations جو سبب بڻجي سگهي ٿو جيڪو غير حقيقي پيداوار جو سبب بڻجندو آهي ڇاڪاڻ ته اوور فٽنگ ماڊل کي ان مان سکڻ جي بدران ٽريننگ ڊيٽا کي بچائڻ جو سبب بڻائيندو آهي. اوورفٽنگ ان رجحان ڏانهن اشارو ڪري ٿو جڏهن هڪ ماڊل ٽريننگ ڊيٽا ۾ تمام گهڻو ماهر هوندو آهي، جنهن جي ڪري اهو ڊيٽا ۾ غير لاڳاپيل نمونن ۽ شور سکڻ جو سبب بڻجندو آهي.

ٻئي طرف، غير مناسب ٿئي ٿي جڏهن فارم تمام سادو آهي. اهو hallucinations جي اڳواڻي ڪري سگهي ٿو ڇاڪاڻ ته ماڊل ڊيٽا جي فرق يا پيچيدگي کي پڪڙڻ جي قابل ناهي، ۽ غير منطقي پيداوار کي ختم ڪري ٿو.

ٽريننگ ڊيٽا ۾ تنوع جي کوٽ:

هن سلسلي ۾، مسئلو الگورتھم نه آهي پر ٽريننگ ڊيٽا پاڻ کي. محدود يا باصلاحيت ڊيٽا تي تربيت يافته AI ماڊل شايد خيال پيدا ڪري سگھن ٿيون جيڪي ٽريننگ ڊيٽا ۾ حدون يا تعصب کي ظاهر ڪن ٿيون. Hallucinations پڻ ٿي سگھي ٿو جڏهن ماڊل کي تربيت ڏني وئي ڊيٽا سيٽ تي جنهن ۾ غلط يا نامڪمل معلومات شامل آهي.

پيچيده ماڊل:

حيرت انگيز طور تي، هڪ ٻيو سبب ڇو ته AI ماڊل هيلوسينيشن جو شڪار آهن ته ڇا اهي انتهائي پيچيده يا گہرا آهن. اهو ئي سبب آهي ته پيچيده ماڊلز ۾ وڌيڪ پيٽرولر ۽ پرتون هونديون آهن جيڪي پيدا ڪري سگھن ٿيون شور يا غلطيون.

دشمني حملا:

ڪجهه حالتن ۾، AI hallucinations عمدي طور تي حملو ڪندڙ پاران ٺاهيا ويندا آهن AI ماڊل کي دوکو ڏيڻ لاء. اهڙن حملن کي دشمني حملن طور سڃاتو وڃي ٿو. هن سائبر حملي جو واحد مقصد AI ماڊلز کي گمراهه ڪندڙ ڊيٽا سان چالبازي ڪرڻ آهي. ان ۾ ان پٽ ڊيٽا ۾ ننڍيون خرابيون متعارف ڪرائڻ شامل آهن ته جيئن AI کي غلط يا غير متوقع آئوٽ پيدا ٿئي. مثال طور، هڪ حملو ڪندڙ هڪ تصوير ۾ شور يا بلور شامل ڪري سگهي ٿو جيڪا انسانن لاءِ ناقابل تصور آهي پر ان کي AI ماڊل طرفان غلط ورهايل ٿيڻ جو سبب بڻائيندو. مثال طور، هيٺ ڏنل تصوير ڏسو، هڪ ٻلي، جنهن کي ٿورڙو تبديل ڪيو ويو آهي چالي ڪرڻ لاءِ InceptionV3 جي ڪمپلر کي اهو بيان ڪرڻ ۾ ته اهو آهي "guacamole".


ڪريڊٽ:
انيش اٿلي ، ليبڪس ريسرچ گروپ جو ميمبر، جن جو ڌيان مخالفين جي حملن تي آهي

تبديليون واضح طور تي واضح نه آهن. انسان لاءِ، تبديلي هرگز ممڪن نه هوندي، جيئن مٿين مثال مان واضح ٿئي ٿو. هڪ انساني پڙهندڙ کي تصوير کي ساڄي پاسي واري ٽيبي ٻلي وانگر درجه بندي ڪرڻ ۾ ڪو مسئلو ناهي. پر تصويرن، وڊيوز، ٽيڪسٽ، يا آڊيو ۾ ننڍيون تبديليون ڪرڻ AI سسٽم کي چال ڪري سگھي ٿو انهن شين کي سڃاڻڻ ۾ جيڪي اتي موجود نه آهن يا انهن شين کي نظرانداز ڪري سگهن ٿيون جيڪي آهن، جهڙوڪ اسٽاپ سائن.

انهن قسمن جا حملا AI سسٽم لاءِ سنگين خطرا پيدا ڪن ٿا جيڪي صحيح ۽ قابل اعتماد اڳڪٿين تي ڀروسو ڪن ٿا، جهڙوڪ خود ڊرائيونگ ڪارون، بايو ميٽرڪ تصديق، طبي تشخيص، مواد فلٽرنگ وغيره.

AI hallucination ڪيترو خطرناڪ آهي؟

AI hallucinations تمام خطرناڪ ٿي سگهن ٿا، خاص طور تي ان تي منحصر آهي ته ڪهڙي قسم جي AI سسٽم انهن جو تجربو ڪري رهيو آهي. ڪو به خود ڊرائيونگ گاڏيون يا AI اسسٽنٽ جيڪي صارف جي پئسو خرچ ڪرڻ جي قابل هجن يا هڪ AI سسٽم آن لائن ناپسنديده مواد کي فلٽر ڪرڻ لاءِ مڪمل طور تي قابل اعتماد هجي.

پر هن ڪلاڪ جي ناقابل ترديد حقيقت اها آهي ته AI سسٽم مڪمل طور تي قابل اعتماد نه آهن پر حقيقت ۾، hallucinations جو شڪار آهن. جيتوڻيڪ اڄ جي سڀ کان وڌيڪ ترقي يافته AI ماڊل ان کان محفوظ نه آهن.

مثال طور، هڪ حملو شو گوگل جي ڪلائوڊ ڪمپيوٽنگ سروس کي چريو ڪيو ته بندوق کي هيلي ڪاپٽر وانگر ڇڪيندي. ڇا توهان تصور ڪري سگهو ٿا ته، هن وقت، AI انهي ڳالهه کي يقيني بڻائڻ جو ذميوار هو ته اهو شخص هٿياربند نه هو؟

هڪ ٻيو دشمني حملو اهو ظاهر ڪيو ته ڪيئن هڪ ننڍڙي تصوير کي اسٽاپ نشاني ۾ شامل ڪرڻ ان کي AI سسٽم ڏانهن پوشيده بڻائي ٿو. لازمي طور تي، هن جو مطلب اهو آهي ته هڪ خود ڊرائيونگ ڪار کي hallucinate ڪري سگهجي ٿو ته روڊ تي ڪو به اسٽاپ نشان نه آهي. ڪيترا حادثا ٿي سگهن ٿا جيڪڏهن خود ڊرائيونگ ڪارون اڄ حقيقت هجن ها؟ ان ڪري اهي هاڻي نه آهن.

ايستائين جو اسان حساب ۾ رکون ٿا موجوده مشهور چيٽ شوز، hallucinations غلط پيداوار پيدا ڪري سگهي ٿو. پر جيڪي ماڻهو نٿا ڄاڻن ته AI chatbots hallucinations جو شڪار آهن ۽ AI بوٽس پاران پيدا ڪيل پيداوار جي تصديق نٿا ڪن، اڻڄاڻ طور تي غلط معلومات پکيڙي سگهن ٿا. اسان کي اهو بيان ڪرڻ جي ضرورت ناهي ته اهو ڪيترو خطرناڪ آهي.

ان کان علاوه، دشمني حملن هڪ دٻاء جو خدشو آهي. هينئر تائين، اهي صرف ليبارٽريز ۾ ڏيکاريا ويا آهن. پر جيڪڏهن هڪ مشن نازڪ AI سسٽم انهن کي حقيقي دنيا ۾ منهن ڏئي ٿو، نتيجا تباهه ٿي سگهن ٿا.

حقيقت اها آهي ته قدرتي ٻولي جي ماڊل کي بچائڻ لاء نسبتا آسان آهي. (اسان اهو نه ٿا چئون ته اهو آسان آهي؛ اهو اڃا تائين تمام ڏکيو ثابت ٿئي ٿو.) بهرحال، ڪمپيوٽر جي ويزن سسٽم جي حفاظت هڪ مڪمل طور تي مختلف منظرنامو آهي. اهو وڌيڪ ڏکيو آهي خاص طور تي ڇاڪاڻ ته قدرتي دنيا ۾ تمام گهڻو تغيرات آهي، ۽ تصويرن ۾ وڏي تعداد ۾ پکسلز شامل آهن.

هن مسئلي کي حل ڪرڻ لاءِ، اسان کي شايد هڪ AI پروگرام جي ضرورت هجي جنهن ۾ دنيا جي باري ۾ وڌيڪ انساني نظريو هجي، جيڪا ان کي خوش فهميءَ جو شڪار بڻائي سگهي. جڏهن ته تحقيق ڪئي پئي وڃي، اسان اڃا تائين هڪ مصنوعي ذهانت کان گهڻو پري آهيون جيڪا فطرت کان اشارو وٺڻ جي ڪوشش ڪري سگهي ٿي ۽ hallucinations جي مسئلي کان بچڻ جي ڪوشش ڪري سگهي ٿي. في الحال، اهي هڪ سخت حقيقت آهن.

عام طور تي، AI hallucinations هڪ پيچيده رجحان آهي جيڪو فڪر جي ميلاپ مان پيدا ٿي سگهي ٿو. محقق AI سسٽم جي درستگي ۽ اعتبار کي بهتر بڻائڻ لاءِ AI hallucinations کي ڳولڻ ۽ گهٽائڻ لاءِ فعال طور تي طريقا ٺاهي رهيا آهن. پر توهان کي انهن کان آگاهي ٿيڻ گهرجي جڏهن ڪنهن به AI سسٽم سان لهه وچڙ ۾.

متعلق پوسٽ
تي آرٽيڪل شايع ڪريو

هڪ رايو شامل ڪريو