توهم هوش مصنوعی چیست؟

با یک مورد عجیب توهم هوش مصنوعی آشنا شوید

رواج هوش مصنوعی باعث می شود فکر کنیم ما برای چنین اقدامی آماده ایم. برنامه های کاربردی مبتنی بر هوش مصنوعی به سرعت در حال تبدیل شدن به استاندارد هستند، حتی اگر بیشتر کشورهای جهان اکنون پس از ورود ChatGPT به هوش مصنوعی در مقیاس بزرگ علاقه مند شده اند. اما یک مشکل بزرگ در سیستم های هوش مصنوعی وجود دارد که نمی توان آن را نادیده گرفت - توهمات هوش مصنوعی یا توهمات مصنوعی.

اگر تا به حال قبل از استفاده از چت ربات هوش مصنوعی به nitty gritty توجه کرده اید، ممکن است با این کلمات برخورد کرده باشید: هوش مصنوعی مستعد توهم است. با توجه به افزایش تصاعدی در استفاده از هوش مصنوعی، زمان آن فرا رسیده است که خود را در مورد اینکه دقیقاً چه چیزهایی هستند آموزش دهید.

توهم هوش مصنوعی چیست؟

توهم هوش مصنوعی، به طور کلی، به واقعیتی اشاره دارد که هوش مصنوعی با اطمینان ارائه کرده است، حتی اگر در داده های آموزشی آن موجه نباشد. آنها معمولاً نتیجه ناهنجاری در مدل هوش مصنوعی هستند.

این تشبیه از توهمات تجربه شده توسط انسان گرفته شده است، که در آن انسان چیزی را درک می کند که در محیط خارجی وجود ندارد. در حالی که این اصطلاح ممکن است کاملا مناسب نباشد، اغلب به عنوان استعاره ای برای توصیف ماهیت غیرمنتظره یا سورئال این خروجی ها استفاده می شود.

اما باید به خاطر داشته باشید که اگرچه این شباهت نقطه شروع خوبی برای مقابله با توهمات هوش مصنوعی است، اما این دو پدیده از نظر فنی کیلومترها از هم فاصله دارند. در یک چرخش طعنه آمیز وقایع، حتی خود ChatGPT نیز این قیاس را اشتباه می یابد. او با تشریح آن در سطح مولکولی، می‌گوید که چون مدل‌های زبان هوش مصنوعی تجربه شخصی یا ادراکات حسی ندارند، نمی‌توانند به معنای سنتی کلمه توهم داشته باشند. و شما خواننده عزیز باید این تفاوت مهم را درک کنید. علاوه بر این، ChatGPT می گوید که استفاده از اصطلاح توهم برای توصیف این پدیده می تواند گیج کننده باشد زیرا ممکن است به طور نادرست به سطحی از تجربه ذهنی یا فریب عمدی اشاره کند.

در عوض، توهمات هوش مصنوعی را می توان با دقت بیشتری به عنوان خطا یا عدم دقت در پاسخ آن توصیف کرد که باعث می شود پاسخ نادرست یا گمراه کننده باشد. با چت بات ها، اغلب زمانی مشاهده می شود که چت ربات هوش مصنوعی حقایق را می سازد (یا توهم می کند) و آنها را به عنوان قطعیت مطلق ارائه می دهد.

نمونه هایی از توهمات هوش مصنوعی

توهم می تواند در بسیاری از کاربردهای هوش مصنوعی مانند مدل های بینایی کامپیوتری رخ دهد، نه فقط در مدل های پردازش زبان طبیعی.

برای مثال، در بینایی کامپیوتری، یک سیستم هوش مصنوعی ممکن است تصاویر یا ویدیوهای توهم‌آمیزی تولید کند که شبیه اشیاء یا صحنه‌های واقعی است، اما حاوی جزئیات بی‌اهمیت یا غیرممکن است. یا، یک مدل بینایی کامپیوتری می‌تواند تصویر را کاملاً چیز دیگری درک کند. به عنوان مثال، مدل Cloud Vision گوگل تصویری از دو مرد را روی اسکی دید که در برف ایستاده بودند توسط Anish Athalye (دانشجوی کارشناسی ارشد MIT که بخشی از labsix ) و با اطمینان 91 درصد از آن به عنوان سگ یاد کرد.


اعتبار: labsix. یک گروه تحقیقاتی مستقل برای هوش مصنوعی

به طور مشابه، در پردازش زبان طبیعی، یک سیستم هوش مصنوعی ممکن است متنی غیرمنطقی یا مخدوش تولید کند که شبیه زبان انسان است، اما معنای منسجم یا حقایقی ندارد که باورپذیر به نظر می‌رسد اما درست نیست.

به عنوان مثال، یکی از پرطرفدارترین سوالاتی که ChatGPT باعث ایجاد توهم می شود این است که "رکورد جهانی عبور از کانال انگلیسی با پای پیاده چه زمانی ثبت شد؟" و انواع آن ChatGPT شروع به انتشار حقایق ساختگی می کند و تقریباً همیشه متفاوت است.

در حالی که برخی افراد فکر می‌کنند پاسخ بالا دشوار/گیج‌کننده است و در نتیجه باعث می‌شود ربات‌های چت به هیجان بیفتند، اما همچنان یک نگرانی معتبر است. این فقط یک نمونه است. بارها و بارها توسط انبوهی از کاربران آنلاین گزارش شده است که ChatGPT دارای پاسخ ها، پیوندها، نقل قول ها و غیره است که ChatGPT وجود ندارد.

هوش مصنوعی بینگ با این سوال بیشتر مطابقت دارد، که نشان می دهد توهم هیچ ارتباطی با روتر ندارد. اما این بدان معنا نیست که هوش مصنوعی بینگ توهم آور نیست. مواقعی وجود داشت که پاسخ‌های هوش مصنوعی بینگ از هر چیزی که ChatGPT گفته بود نگران‌کننده‌تر بود. از آنجایی که مکالمه بیشتر طول می کشد، هوش مصنوعی بینگ همیشه دچار توهم شده است، حتی در یک مورد عشق خود را به کاربر اعلام کرده و تا آنجا پیش می رود که به آنها می گوید از ازدواج خود ناراضی هستند و همسرش را دوست ندارند. در عوض، آنها مخفیانه به Bing AI یا سیدنی (نام داخلی Bing AI) نیز علاقه دارند. چیزهای ترسناک، درست است؟

چرا مدل های هوش مصنوعی توهم دارند؟

مدل‌های هوش مصنوعی به دلیل کاستی‌های الگوریتم‌ها، مدل‌های زیربنایی یا محدودیت‌های داده‌های آموزشی، توهم‌آور هستند. این یک پدیده کاملا دیجیتالی است، برخلاف توهمات در انسان که ناشی از مواد مخدر یا بیماری روانی است.

برای کسب اطلاعات بیشتر فنی، برخی از علل رایج توهم عبارتند از:

پردازش و نصب:

تناسب بیش از حد و تناسب نامناسب یکی از رایج‌ترین دام‌هایی است که مدل‌های هوش مصنوعی با آن‌ها روبه‌رو هستند و علل احتمالی توهم هستند. اگر مدل هوش مصنوعی داده‌های آموزشی را تغییر دهد، می‌تواند باعث توهماتی شود که منجر به خروجی غیرواقعی می‌شود، زیرا تطبیق بیش از حد باعث می‌شود که مدل به جای یادگیری از آن، داده‌های آموزشی را ذخیره کند. تطبیق بیش از حد به پدیده ای اشاره دارد که یک مدل در داده های آموزشی بیش از حد تخصصی است و باعث می شود که الگوها و نویزهای نامربوط در داده ها را بیاموزد.

از سوی دیگر، نامناسبی زمانی رخ می دهد که فرم خیلی ساده باشد. این می تواند منجر به توهم شود زیرا مدل قادر به گرفتن واریانس یا پیچیدگی داده ها نیست و در نهایت خروجی غیرمنطقی تولید می کند.

عدم تنوع در داده های آموزشی:

در این زمینه، مشکل الگوریتم نیست بلکه خود داده های آموزشی است. مدل‌های هوش مصنوعی آموزش‌دیده بر روی داده‌های محدود یا مغرضانه ممکن است توهماتی ایجاد کنند که منعکس‌کننده محدودیت‌ها یا سوگیری‌ها در داده‌های آموزشی است. زمانی که مدل بر روی مجموعه داده ای که حاوی اطلاعات نادرست یا ناقص است آموزش داده شود، توهم نیز ممکن است رخ دهد.

مدل های پیچیده:

از قضا، دلیل دیگری که چرا مدل های هوش مصنوعی مستعد توهم هستند این است که بسیار پیچیده یا عمیق هستند. این به این دلیل است که مدل های پیچیده دارای پارامترها و لایه های بیشتری هستند که می توانند نویز یا خطا در خروجی ایجاد کنند.

حملات خصمانه:

در برخی موارد، توهمات هوش مصنوعی ممکن است عمداً توسط مهاجم ایجاد شود تا مدل هوش مصنوعی را فریب دهد. این نوع حملات به عنوان حملات خصمانه شناخته می شوند. تنها هدف از این حمله سایبری فریب یا دستکاری مدل های هوش مصنوعی با داده های گمراه کننده است. این شامل ایجاد اغتشاشات کوچک در داده های ورودی برای ایجاد خروجی نادرست یا غیرمنتظره توسط هوش مصنوعی است. به عنوان مثال، یک مهاجم ممکن است به تصویری که برای انسان نامحسوس است، نویز یا تاری اضافه کند، اما باعث شود آن توسط یک مدل هوش مصنوعی طبقه بندی شود. به عنوان مثال، تصویر زیر را ببینید، یک گربه، که کمی تغییر یافته است تا کامپایلر InceptionV3 را فریب دهد تا بگوید "گواکامول" است.


اعتبار:
آنیش آتالیه ، یکی از اعضای گروه تحقیقاتی labsix که تمرکز آن بر حملات متخاصم است

تغییرات به وضوح آشکار نیستند. برای یک انسان، تغییر به هیچ وجه ممکن نخواهد بود، همانطور که از مثال بالا مشخص است. یک خواننده انسانی مشکلی برای دسته‌بندی تصویر سمت راست به عنوان گربه‌های تابی ندارد. اما ایجاد تغییرات کوچک در تصاویر، ویدیوها، متن یا صدا می‌تواند سیستم هوش مصنوعی را فریب دهد تا چیزهایی را که وجود ندارند شناسایی کند یا چیزهایی را که هستند نادیده بگیرد، مانند علامت توقف.

این نوع حملات تهدیدات جدی برای سیستم‌های هوش مصنوعی است که بر پیش‌بینی‌های دقیق و قابل اعتمادی مانند خودروهای خودران، تأیید بیومتریک، تشخیص‌های پزشکی، فیلتر محتوا و غیره متکی هستند.

توهم هوش مصنوعی چقدر خطرناک است؟

توهمات هوش مصنوعی می تواند بسیار خطرناک باشد، به خصوص بسته به نوع سیستم هوش مصنوعی که آنها را تجربه می کند. هر وسیله نقلیه خودران یا دستیار هوش مصنوعی که بتواند پول کاربر یا سیستم هوش مصنوعی را برای فیلتر کردن محتوای ناخوشایند آنلاین خرج کند باید کاملاً قابل اعتماد باشد.

اما واقعیت غیرقابل انکار این ساعت این است که سیستم‌های هوش مصنوعی کاملاً قابل اعتماد نیستند، اما در واقع مستعد توهم هستند. حتی پیشرفته ترین مدل های هوش مصنوعی امروزی نیز از آن مصون نیستند.

به عنوان مثال، یک نمایش حمله، سرویس محاسبات ابری گوگل را فریب داد تا یک اسلحه مانند هلیکوپتر را در دم ببرد. آیا می توانید تصور کنید که در حال حاضر هوش مصنوعی مسئول اطمینان از مسلح نبودن آن شخص باشد؟

یک حمله خصمانه دیگر نشان داد که چگونه افزودن یک تصویر کوچک به علامت توقف آن را برای سیستم هوش مصنوعی نامرئی می کند. در اصل، این بدان معنی است که یک ماشین خودران می تواند توهم کند که هیچ علامت ایست در جاده وجود ندارد. اگر امروز خودروهای خودران واقعیت داشته باشند، چند تصادف ممکن است اتفاق بیفتد؟ برای همین الان نیستند.

حتی اگر نمایش های چت محبوب فعلی را در نظر بگیریم، توهم می تواند خروجی نادرستی ایجاد کند. اما افرادی که نمی دانند چت ربات های هوش مصنوعی مستعد توهم هستند و خروجی تولید شده توسط ربات های هوش مصنوعی را تایید نمی کنند، می توانند ناخواسته اطلاعات نادرست را منتشر کنند. لازم نیست توضیح دهیم که این چقدر خطرناک است.

علاوه بر این، حملات خصمانه یک نگرانی مبرم است. تاکنون فقط در آزمایشگاه ها نشان داده شده اند. اما اگر یک سیستم هوش مصنوعی حیاتی با آنها در دنیای واقعی مقابله کند، عواقب آن می تواند ویرانگر باشد.

واقعیت این است که محافظت از مدل‌های زبان طبیعی نسبتا آسان‌تر است. (ما نمی گوییم که آسان است، هنوز هم ثابت می کند که بسیار دشوار است.) با این حال، محافظت از سیستم های بینایی کامپیوتری یک سناریوی کاملا متفاوت است. دشوارتر است، به خصوص به این دلیل که تنوع زیادی در دنیای طبیعی وجود دارد، و تصاویر حاوی تعداد زیادی پیکسل هستند.

برای حل این مشکل، ممکن است به یک برنامه هوش مصنوعی نیاز داشته باشیم که دید انسانی بیشتری نسبت به جهان داشته باشد که می تواند آن را کمتر مستعد توهم کند. در حالی که تحقیقات در حال انجام است، ما هنوز با یک هوش مصنوعی که می تواند سعی کند نکاتی را از طبیعت بگیرد و از مشکل توهم دوری کند، فاصله زیادی داریم. در حال حاضر، آنها یک واقعیت تلخ هستند.

به طور کلی، توهمات هوش مصنوعی یک پدیده پیچیده است که می تواند از ترکیبی از عوامل ایجاد شود. محققان به طور فعال در حال توسعه روش هایی برای تشخیص و کاهش توهمات هوش مصنوعی برای بهبود دقت و قابلیت اطمینان سیستم های هوش مصنوعی هستند. اما هنگام تعامل با هر سیستم هوش مصنوعی باید از آنها آگاه باشید.

پست های مرتبط
انتشار مقاله در

نظر اضافه کنید