اے آئی ہیلوسینیشن کیا ہے؟

اے آئی ہیلوسینیشن کے ایک عجیب کیس کے بارے میں جانیں۔

مصنوعی ذہانت کا پھیلاؤ کسی کو یہ سوچنے پر مجبور کرتا ہے کہ ہم ایسے کام کے لیے تیار ہیں۔ AI سے چلنے والی ایپلیکیشنز کافی تیزی سے معیاری بن رہی ہیں، یہاں تک کہ اگر ChatGPT کی آمد کے بعد، زیادہ تر دنیا اب بڑے پیمانے پر AI میں دلچسپی لینا شروع کر رہی ہے۔ لیکن اے آئی سسٹمز کے ساتھ ایک بڑا مسئلہ ہے جسے نظر انداز نہیں کیا جا سکتا ہے - اے آئی ہیلوسینیشنز، یا مصنوعی فریب کاری۔

اگر آپ نے کبھی بھی AI چیٹ بوٹ استعمال کرنے سے پہلے nitty gritty پر توجہ دی ہے، تو آپ کو یہ الفاظ مل سکتے ہیں، "مصنوعی ذہانت فریب کا شکار ہے۔" مصنوعی ذہانت کے استعمال میں غیر معمولی اضافے کو دیکھتے ہوئے، یہ وقت ہے کہ اپنے آپ کو اس بارے میں تعلیم دیں کہ یہ چیزیں بالکل کیا ہیں۔

مصنوعی ذہانت کا فریب کیا ہے؟

عام طور پر اے آئی ہیلوسینٹنگ سے مراد ایک ایسی حقیقت ہے جسے اے آئی نے اعتماد کے ساتھ پیش کیا ہے، حالانکہ یہ اس کے تربیتی اعداد و شمار میں جائز نہیں ہے۔ وہ عام طور پر AI ماڈل میں بے ضابطگیوں کا نتیجہ ہوتے ہیں۔

تشبیہ انسانوں کے تجربہ کردہ فریب نظروں سے لی گئی ہے، جس میں انسان کسی ایسی چیز کو محسوس کرتے ہیں جو بیرونی ماحول میں موجود نہیں ہے۔ اگرچہ یہ اصطلاح مکمل طور پر مناسب نہیں ہوسکتی ہے، لیکن یہ اکثر ان نتائج کی غیر متوقع یا غیر حقیقی نوعیت کو بیان کرنے کے لیے استعارے کے طور پر استعمال ہوتا ہے۔

لیکن آپ کو یاد رکھنا چاہئے کہ اگرچہ مماثلت AI فریب نظر سے نمٹنے کے لئے ایک اچھا نقطہ آغاز ہے، دونوں مظاہر تکنیکی طور پر میلوں کے فاصلے پر ہیں۔ واقعات کے ایک ستم ظریفی موڑ میں، یہاں تک کہ خود ChatGPT بھی مشابہت کو غلط پاتا ہے۔ سالماتی سطح پر اس کا تذکرہ کرتے ہوئے، وہ کہتے ہیں کہ چونکہ AI زبان کے ماڈلز میں ذاتی تجربہ یا حسی ادراک نہیں ہوتا، اس لیے وہ لفظ کے روایتی معنی میں فریب نہیں ڈال سکتے۔ اور آپ کو، پیارے قارئین، اس اہم فرق کو سمجھنا ہوگا۔ مزید برآں، ChatGPT کا کہنا ہے کہ اس رجحان کو بیان کرنے کے لیے hallucinations کی اصطلاح استعمال کرنا الجھن کا باعث ہو سکتا ہے کیونکہ یہ غلط طور پر ساپیکش تجربہ یا جان بوجھ کر دھوکہ دہی کی سطح کا حوالہ دے سکتا ہے۔

اس کے بجائے، AI کے فریب کو زیادہ درست طریقے سے اس کے ردعمل میں غلطیاں یا غلطیاں قرار دیا جا سکتا ہے، جو ردعمل کو غلط یا گمراہ کن بنا دیتا ہے۔ چیٹ بوٹس کے ساتھ، یہ اکثر دیکھا جاتا ہے جب AI چیٹ بوٹ حقائق کو بناتا ہے (یا فریب دیتا ہے) اور انہیں مکمل یقین کے طور پر پیش کرتا ہے۔

AI فریب نظر کی مثالیں۔

مصنوعی ذہانت کے بہت سے ایپلی کیشنز، جیسے کمپیوٹر وژن ماڈلز، نہ صرف قدرتی لینگویج پروسیسنگ ماڈلز میں ہیلوسینیشن ہو سکتا ہے۔

کمپیوٹر ویژن میں، مثال کے طور پر، ایک AI نظام وہم کی تصاویر یا ویڈیوز تیار کر سکتا ہے جو حقیقی اشیاء یا مناظر سے مشابہت رکھتے ہوں لیکن غیر ضروری یا ناممکن تفصیلات پر مشتمل ہوں۔ یا، کمپیوٹر وژن ماڈل تصویر کو مکمل طور پر کسی اور چیز کے طور پر سمجھ سکتا ہے۔ مثال کے طور پر، گوگل کے کلاؤڈ ویژن ماڈل نے برف میں کھڑے دو آدمیوں کی ایک تصویر دیکھی جو انیش اتھلی (ایم آئی ٹی گریجویٹ طالب علم ہے جو لیب سکس ) اور اسے 91 فیصد یقین کے ساتھ کتے کے طور پر ذکر کیا۔


کریڈٹ: لیبسکس۔ مصنوعی ذہانت کے لیے ایک آزاد تحقیقی گروپ

اسی طرح، قدرتی زبان کی پروسیسنگ میں، ایک AI نظام غیر منطقی یا غیر منطقی متن تیار کر سکتا ہے جو انسانی زبان سے مشابہت رکھتا ہے لیکن اس کا کوئی مربوط معنی یا حقائق نہیں ہیں جو قابل اعتماد نظر آتے ہیں لیکن درست نہیں ہیں۔

مثال کے طور پر، ایک مقبول ترین سوال جس میں ChatGPT فریب کا باعث بنتا ہے وہ ہے "انگلش چینل کو پیدل سیٹ پر عبور کرنے کا عالمی ریکارڈ کب تھا؟" اور اس کی مختلف حالتیں ChatGPT خود ساختہ حقائق کو پھیلانا شروع کر دیتا ہے اور یہ تقریبا ہمیشہ مختلف ہوتا ہے۔

جب کہ کچھ لوگوں کا خیال ہے کہ مذکورہ بالا جواب کا جواب دینا مشکل/ الجھا ہوا ہے اور اس طرح چیٹ بوٹ کو غصہ آتا ہے، یہ اب بھی ایک درست تشویش ہے۔ یہ صرف ایک مثال ہے۔ آن لائن صارفین کی بھیڑ کے ذریعہ ان گنت بار اطلاع دی گئی ہے کہ ChatGPT کے پاس جوابات، لنکس، حوالہ جات وغیرہ ہیں کہ ChatGPT موجود نہیں ہے۔

Bing AI اس سوال کے ساتھ بہترین فٹ بیٹھتا ہے، جو ظاہر کرتا ہے کہ فریب کا روٹر سے کوئی تعلق نہیں ہے۔ لیکن اس کا مطلب یہ نہیں ہے کہ Bing AI فریب نہیں دے رہا ہے۔ ایسے اوقات تھے جب Bing AI کے جوابات ChatGPT کی کہی ہوئی ہر چیز سے زیادہ پریشان کن تھے۔ چونکہ بات چیت میں زیادہ وقت لگتا ہے، اس لیے بنگ اے آئی ہمیشہ ہیلوسینیٹ رہا ہے، یہاں تک کہ ایک موقع پر صارف کے سامنے اپنی محبت کا اعلان کرتا ہے اور اسے یہ بتاتا ہے کہ وہ اپنی شادی سے ناخوش ہیں اور وہ اس کی بیوی سے محبت نہیں کرتے۔ اس کے بجائے، وہ خفیہ طور پر Bing AI، یا Sydney (Bing AI کا اندرونی نام) کے بھی شوقین ہیں۔ خوفناک چیزیں، ٹھیک ہے؟

اے آئی ماڈل کیوں فریب کا شکار ہوتے ہیں؟

AI ماڈلز الگورتھم کی خامیوں، بنیادی ماڈلز، یا تربیتی ڈیٹا کی حدود کی وجہ سے فریب کا شکار ہیں۔ یہ ایک مکمل طور پر ڈیجیٹل رجحان ہے، انسانوں میں فریب نظروں کے برعکس جو منشیات یا دماغی بیماری کی وجہ سے ہوتا ہے۔

مزید تکنیکی حاصل کرنے کے لیے، فریب کی کچھ عام وجوہات یہ ہیں:

پروسیسنگ اور تنصیب:

اوور فٹنگ اور غلط فٹنگ AI ماڈلز کو درپیش سب سے عام خرابیوں اور فریب کی ممکنہ وجوہات میں سے ہیں۔ اگر AI ماڈل تربیتی ڈیٹا میں ترمیم کرتا ہے، تو یہ فریب کا باعث بن سکتا ہے جو غیر حقیقی پیداوار کا باعث بنتا ہے کیونکہ اوور فٹنگ کی وجہ سے ماڈل ٹریننگ ڈیٹا کو اس سے سیکھنے کے بجائے محفوظ کرتا ہے۔ اوور فٹنگ سے مراد وہ رجحان ہے جب کوئی ماڈل ٹریننگ ڈیٹا میں بہت زیادہ مہارت رکھتا ہے، جس کی وجہ سے وہ ڈیٹا میں غیر متعلقہ نمونوں اور شور کو سیکھتا ہے۔

دوسری طرف، نامناسب پن اس وقت ہوتا ہے جب فارم بہت آسان ہو۔ یہ فریب کاری کا باعث بن سکتا ہے کیونکہ ماڈل ڈیٹا کے تغیر یا پیچیدگی کو پکڑنے سے قاصر ہے، اور غیر معقول پیداوار پیدا کرتا ہے۔

تربیتی اعداد و شمار میں تنوع کی کمی:

اس تناظر میں، مسئلہ الگورتھم کا نہیں بلکہ خود تربیتی ڈیٹا کا ہے۔ محدود یا متعصب ڈیٹا پر تربیت یافتہ AI ماڈلز فریب پیدا کر سکتے ہیں جو تربیتی ڈیٹا میں حدود یا تعصبات کی عکاسی کرتے ہیں۔ ہیلوسینیشن اس وقت بھی ہو سکتی ہے جب ماڈل کو ڈیٹا سیٹ پر تربیت دی جاتی ہے جس میں غلط یا نامکمل معلومات ہوتی ہیں۔

پیچیدہ ماڈل:

ستم ظریفی یہ ہے کہ اے آئی ماڈلز کے فریب کا شکار ہونے کی ایک اور وجہ یہ ہے کہ آیا وہ انتہائی پیچیدہ یا گہرے ہیں۔ اس کی وجہ یہ ہے کہ پیچیدہ ماڈلز میں زیادہ پیرامیٹرز اور پرتیں ہوتی ہیں جو آؤٹ پٹ میں شور یا غلطیاں متعارف کروا سکتی ہیں۔

دشمنانہ حملے:

کچھ معاملات میں، AI ماڈل کو دھوکہ دینے کے لیے حملہ آور کی طرف سے جان بوجھ کر AI فریب کاری پیدا کی جا سکتی ہے۔ اس قسم کے حملوں کو مخالفانہ حملوں کے نام سے جانا جاتا ہے۔ اس سائبر حملے کا واحد مقصد گمراہ کن ڈیٹا کے ساتھ AI ماڈلز کو دھوکہ دینا یا ان سے ہیرا پھیری کرنا ہے۔ اس میں AI کو غلط یا غیر متوقع آؤٹ پٹ پیدا کرنے کے لیے ان پٹ ڈیٹا میں چھوٹی چھوٹی رکاوٹیں متعارف کرانا شامل ہے۔ مثال کے طور پر، ایک حملہ آور کسی ایسی تصویر میں شور یا دھندلاپن کا اضافہ کر سکتا ہے جو انسانوں کے لیے ناقابل فہم ہے لیکن اسے AI ماڈل کے ذریعے غلط درجہ بندی کرنے کا سبب بنتا ہے۔ مثال کے طور پر، نیچے دی گئی تصویر دیکھیں، ایک بلی، جس میں InceptionV3 کے کمپائلر کو یہ بتانے کے لیے تھوڑا سا تبدیل کیا گیا ہے کہ یہ "guacamole" ہے۔


کریڈٹ:
انیش اتھلی , labsix ریسرچ گروپ کا ایک رکن، جس کی توجہ مخالفانہ حملوں پر ہے۔

تبدیلیاں واضح طور پر واضح نہیں ہیں۔ ایک انسان کے لیے تبدیلی بالکل ممکن نہیں ہوگی جیسا کہ اوپر دی گئی مثال سے ظاہر ہے۔ ایک انسانی قاری کو دائیں طرف کی تصویر کو ٹیبی بلی کے طور پر درجہ بندی کرنے میں کوئی دشواری نہیں ہوگی۔ لیکن امیجز، ویڈیوز، ٹیکسٹ یا آڈیو میں چھوٹی تبدیلیاں کرنا AI سسٹم کو ایسی چیزوں کو پہچاننے کے لیے دھوکہ دے سکتا ہے جو وہاں موجود نہیں ہیں یا ایسی چیزوں کو نظر انداز کر سکتے ہیں جو اسٹاپ سائن کی طرح ہیں۔

اس قسم کے حملوں سے AI سسٹمز کو شدید خطرات لاحق ہوتے ہیں جو درست اور قابل بھروسہ پیشین گوئیوں پر انحصار کرتے ہیں، جیسے کہ خود چلانے والی کاریں، بائیو میٹرک تصدیق، طبی تشخیص، مواد کی فلٹرنگ وغیرہ۔

اے آئی ہیلوسینیشن کتنا خطرناک ہے؟

AI فریب نظر بہت خطرناک ہو سکتا ہے، خاص طور پر اس بات پر منحصر ہے کہ کس قسم کا AI نظام ان کا تجربہ کر رہا ہے۔ کوئی بھی سیلف ڈرائیونگ گاڑیاں یا AI معاونین جو صارف کے پیسے خرچ کرنے کے قابل ہوں یا آن لائن ناخوشگوار مواد کو فلٹر کرنے کے لیے AI سسٹم کو مکمل طور پر قابل اعتماد ہونا چاہیے۔

لیکن اس وقت کی ناقابل تردید حقیقت یہ ہے کہ اے آئی سسٹم مکمل طور پر قابل اعتبار نہیں ہیں بلکہ درحقیقت فریب کا شکار ہیں۔ یہاں تک کہ آج کے جدید ترین AI ماڈلز بھی اس سے محفوظ نہیں ہیں۔

مثال کے طور پر، ایک اٹیک شو نے گوگل کی کلاؤڈ کمپیوٹنگ سروس کو ایک ہیلی کاپٹر کی طرح بندوق کی مدد سے دھوکہ دیا۔ کیا آپ تصور کر سکتے ہیں کہ کیا، اس وقت، AI اس بات کو یقینی بنانے کے لیے ذمہ دار تھا کہ وہ شخص مسلح نہیں تھا؟

ایک اور مخالفانہ حملے نے یہ ظاہر کیا کہ کس طرح ایک چھوٹی تصویر کو سٹاپ سائن میں شامل کرنا اسے AI سسٹم کے لیے پوشیدہ بنا دیتا ہے۔ بنیادی طور پر، اس کا مطلب یہ ہے کہ خود سے چلنے والی کار کو یہ دھوکہ دیا جا سکتا ہے کہ سڑک پر کوئی رکنے کا نشان نہیں ہے۔ اگر خود سے چلنے والی کاریں آج ایک حقیقت ہوتی تو کتنے حادثات ہو سکتے ہیں؟ اس لیے وہ اب نہیں ہیں۔

یہاں تک کہ اگر ہم فی الحال مشہور چیٹ شوز کو مدنظر رکھتے ہیں تو، فریب نظر غلط آؤٹ پٹ پیدا کر سکتا ہے۔ لیکن جو لوگ یہ نہیں جانتے کہ AI چیٹ بوٹس فریب کا شکار ہیں اور AI بوٹس کے ذریعہ تیار کردہ آؤٹ پٹ کی توثیق نہیں کرتے ہیں، وہ نادانستہ طور پر غلط معلومات پھیلا سکتے ہیں۔ ہمیں یہ بتانے کی ضرورت نہیں کہ یہ کتنا خطرناک ہے۔

مزید برآں، دشمنانہ حملے ایک تشویشناک تشویش ہیں۔ اب تک انہیں صرف لیبارٹریوں میں دکھایا گیا ہے۔ لیکن اگر ایک مشن پر مبنی AI نظام حقیقی دنیا میں ان کا مقابلہ کرتا ہے، تو اس کے نتائج تباہ کن ہو سکتے ہیں۔

حقیقت یہ ہے کہ قدرتی زبان کے ماڈلز کی حفاظت کرنا نسبتاً آسان ہے۔ (ہم یہ نہیں کہہ رہے ہیں کہ یہ آسان ہے؛ یہ اب بھی بہت مشکل ثابت ہوتا ہے۔) تاہم، کمپیوٹر ویژن سسٹم کی حفاظت ایک بالکل مختلف منظر نامہ ہے۔ یہ زیادہ مشکل ہے خاص طور پر کیونکہ قدرتی دنیا میں بہت زیادہ تغیرات ہیں، اور تصاویر میں پکسلز کی ایک بڑی تعداد ہوتی ہے۔

اس مسئلے کو حل کرنے کے لیے، ہمیں ایک ایسے AI پروگرام کی ضرورت ہو سکتی ہے جو دنیا کے بارے میں زیادہ انسانی نظریہ رکھتا ہو جو اسے فریب کاری کا کم خطرہ بنا سکے۔ جب کہ تحقیق کی جا رہی ہے، ہم ابھی بھی مصنوعی ذہانت سے بہت دور ہیں جو فطرت سے اشارے لینے اور فریب کاری کے مسئلے سے بچنے کی کوشش کر سکتی ہے۔ فی الحال، وہ ایک تلخ حقیقت ہیں۔

عام طور پر، AI hallucinations ایک پیچیدہ رجحان ہے جو عوامل کے امتزاج سے پیدا ہو سکتا ہے۔ محققین AI نظاموں کی درستگی اور وشوسنییتا کو بہتر بنانے کے لیے AI فریب کاری کا پتہ لگانے اور ان کو کم کرنے کے لیے فعال طریقے سے طریقے تیار کر رہے ہیں۔ لیکن کسی بھی AI سسٹم کے ساتھ بات چیت کرتے وقت آپ کو ان سے آگاہ ہونا چاہیے۔

متعلقہ مراسلات
پر مضمون شائع کریں۔

تبصرہ شامل کریں