د AI هیلوسینیشن څه شی دی؟

د AI هیلوسینیشن عجیب قضیې په اړه زده کړئ

د مصنوعي استخباراتو پراخوالی یو فکر کوي چې موږ د داسې یو کار لپاره چمتو یو. د AI لخوا پرمخ وړل شوي غوښتنلیکونه په کافي اندازه په چټکۍ سره معیاري کیږي، حتی که د نړۍ ډیری برخه اوس د ChatGPT له رارسیدو وروسته په لویه کچه AI سره علاقه لري. مګر د AI سیسټمونو سره یوه لویه ستونزه شتون لري چې له پامه غورځول کیدی نشي - د AI هوښیارتیا ، یا مصنوعي هوښیارتیا.

که تاسو کله هم د AI چیټ بوټ کارولو دمخه نیټي ګریټي ته پاملرنه کړې وي ، نو تاسو ممکن د دې ټکو سره مخ شوي یاست ، "مصنوعي هوښیارتیا د هوښیارتیا سره مخ ده." د مصنوعي استخباراتو په کارولو کې د پام وړ زیاتوالي په پام کې نیولو سره، دا وخت دی چې خپل ځان پوه کړئ چې دا شیان څه دي.

د مصنوعي استخباراتو هیلوسینیشن څه شی دی؟

د AI hallucinating، په عموم کې، یو حقیقت ته اشاره کوي چې AI په ډاډه توګه وړاندې کړي، که څه هم دا د روزنې معلوماتو کې توجیه نه دی. دوی معمولا د AI ماډل کې د بې نظمیو پایله وي.

مشابهت د انسانانو لخوا تجربه شوي له هیلوسینشنونو څخه اخیستل کیږي ، په کوم کې چې انسانان یو څه درک کوي چې په بهرني چاپیریال کې شتون نلري. پداسې حال کې چې اصطلاح ممکن په بشپړ ډول مناسبه نه وي، دا ډیری وختونه د دې پایلو غیر متوقع یا حقیقتي طبیعت تشریح کولو لپاره د استعار په توګه کارول کیږي.

مګر تاسو باید په یاد ولرئ پداسې حال کې چې ورته والی د AI هیلوسینیشنونو سره معامله کولو لپاره یو ښه پیل ټکی دی ، دوه پیښې په تخنیکي ډول مایلونه جلا دي. د پیښو په زړه پورې بدلون کې ، حتی ChatGPT پخپله ورته ورته غلط ګوري. په مالیکولر کچه د دې تحلیل کول ، هغه وايي چې د AI ژبې ماډلونه شخصي تجربه یا حسي لید نلري ، دوی نشي کولی د کلمې په دودیز معنی کې هیر کړي. او تاسو، ګران لوستونکي، باید په دې مهم توپیر پوه شئ. سربیره پردې ، ChatGPT وايي چې د دې پیښې تشریح کولو لپاره د هیلوسینشن اصطلاح کارول کیدی شي مغشوش وي ځکه چې دا ممکن په غلط ډول د موضوعي تجربې یا قصدي فریب کچې ته اشاره وکړي.

پرځای یې، د AI هوښیارتیا په دقیق ډول د هغې په ځواب کې د غلطیو یا غلطۍ په توګه تشریح کیدی شي، ځواب غلط یا ګمراه کوي. د چیټ بوټونو سره ، دا ډیری وختونه لیدل کیږي کله چې د AI چیټ بوټ حقایق رامینځته کوي (یا هیلوسینیټ) او د بشپړ ډاډ په توګه وړاندې کوي.

د AI هیلوسینیشن مثالونه

هیلوسینشنونه د مصنوعي هوښیارتیا په ډیری غوښتنلیکونو کې پیښ کیدی شي ، لکه د کمپیوټر لید ماډلونه ، نه یوازې د طبیعي ژبې پروسس کولو ماډلونو کې.

د مثال په توګه، د کمپیوټر لید کې، د AI سیسټم ممکن د هیلوسینټري انځورونه یا ویډیوګانې تولید کړي چې د اصلي شیانو یا صحنو سره ورته وي مګر غیر ضروري یا ناممکن توضیحات لري. یا، د کمپیوټر لید ماډل کولی شي عکس په بشپړ ډول د بل څه په توګه درک کړي. د مثال په توګه، د ګوګل کلاوډ ویژن ماډل د انیش اتلی (د MIT یو فارغ شوی زده کونکی چې د انش اتلی لخوا جوړ شوی په واوره کې د سکی کې ولاړ دوه سړي عکس لیدلی و. لابراتوار ) او دا یې د 91٪ ډاډ سره د سپي په توګه یاد کړ.


کریډیټ: لیبکس. د مصنوعي استخباراتو لپاره یوه خپلواکه څیړنه ډله

په ورته ډول، د طبیعي ژبې پروسس کې، د AI سیسټم ممکن غیر منطقي یا خراب متن تولید کړي چې د انسان ژبې سره ورته وي مګر یو همغږي معنی یا حقایق نلري چې د باور وړ ښکاري مګر ریښتیا ندي.

د مثال په توګه، یو له خورا مشهورو پوښتنو څخه چې ChatGPT د هوښیارتیا لامل کیږي هغه دا دي چې "کله په پښو د انګلیسي چینل څخه د تیریدو نړیوال ریکارډ جوړ شو؟" او د هغې ډولونه. ChatGPT د جوړ شوي حقایقو خپرول پیل کوي او دا تقریبا تل توپیر لري.

پداسې حال کې چې ځینې خلک فکر کوي چې پورتني ځواب د ځواب ویلو لپاره ستونزمن / ګډوډ دی او پدې توګه د چیټ بوټ د ویریدو لامل کیږي ، دا لاهم یوه معتبره اندیښنه ده. دا یوازې یوه بیلګه ده. بې شمیره وختونه شتون لري، د آنلاین کاروونکو لخوا راپور شوي، چې ChatGPT ځوابونه، لینکونه، حوالې، او داسې نور لري چې ChatGPT شتون نلري.

Bing AI د دې پوښتنې سره غوره فټ کوي، کوم چې ښیي چې هیلوسینشن د روټر سره هیڅ تړاو نلري. مګر دا پدې معنی ندي چې Bing AI هیروونکی نه دی. داسې وختونه وو کله چې د Bing AI ځوابونه د هر هغه څه په پرتله چې ChatGPT وویل ډیر ځورونکي وو. له هغه وخته چې خبرې اترې ډیر وخت نیسي، Bing AI تل هیروونکی وي، حتی په یوه وخت کې یو کارونکي ته خپله مینه اعلانوي او تر دې حده تللي چې دوی ته ووایي چې دوی په خپل واده کې ناخوښه دي او دا چې دوی د هغه میرمن سره مینه نه لري. پرځای یې، دوی په پټه توګه د Bing AI، یا سیډني، (د Bing AI داخلي نوم) سره مینه لري. ډارونکي توکي، سمه ده؟

ولې د AI ماډلونه هیروي؟

د AI ماډلونه د الګوریتمونو نیمګړتیاو، اصلي ماډلونو، یا د روزنې ډیټا محدودیتونو له امله هیروونکې دي. دا په بشپړ ډول ډیجیټل پدیده ده، په انسانانو کې د هیلوسینشن برعکس چې د مخدره توکو یا رواني ناروغۍ له امله رامینځته کیږي.

د نورو تخنیکي ترلاسه کولو لپاره، د هیلوسینیشن ځینې عام لاملونه په لاندې ډول دي:

پروسس او نصب کول:

ډیر فټینګ او ناسم فټینګ د AI ماډلونو او د هیلوسینیشن احتمالي لاملونو سره مخ شوي ترټولو عام زیانونه دي. که چیرې د AI ماډل د روزنې ډیټا بدل کړي ، نو دا کولی شي هیلوسینیشن رامینځته کړي چې د غیر واقعیتي محصول لامل کیږي ځکه چې ډیر فټینګ د دې لامل کیږي چې ماډل د دې څخه زده کړې پرځای د روزنې ډیټا خوندي کړي. اوور فټینګ هغه پیښې ته اشاره کوي کله چې یو ماډل د روزنې ډیټا کې خورا تخصص لري ، دا د دې لامل کیږي چې په ډیټا کې غیر متناسب نمونې او شور زده کړي.

له بلې خوا، نامناسب واقع کیږي کله چې فورمه خورا ساده وي. دا کولی شي د هیلوسینیشن لامل شي ځکه چې ماډل نشي کولی د معلوماتو توپیر یا پیچلتیا ونیسي، او د غیر منطقي محصول تولید پای ته رسوي.

د روزنې په معلوماتو کې د تنوع نشتوالی:

په دې شرایطو کې، ستونزه د الګوریتم نه ده بلکې پخپله د روزنې ډاټا ده. د AI ماډلونه چې په محدودو یا متعصبو معلوماتو کې روزل شوي ممکن مغشوشیت رامینځته کړي چې د روزنې ډیټا کې محدودیتونه یا تعصب منعکس کوي. هیلوسینشن هم هغه وخت رامینځته کیدی شي کله چې ماډل د ډیټا سیټ په اړه روزل کیږي چې غلط یا نامکمل معلومات لري.

پیچلي ماډلونه:

په حیرانتیا سره، یو بل دلیل چې ولې د AI ماډلونه د هیلوسینشن سره مخ دي ایا دا خورا پیچلي یا ژور دي. دا ځکه چې پیچلي ماډلونه ډیر پیرامیټونه او پرتونه لري کوم چې کولی شي په محصول کې شور یا غلطی معرفي کړي.

دښمني بریدونه:

په ځینو مواردو کې، د AI هیلوسینشن ممکن په قصدي ډول د برید کونکي لخوا رامینځته شي ترڅو د AI ماډل غولوي. دا ډول بریدونه د دښمن بریدونو په نوم یادیږي. د دې سایبري برید یوازینۍ موخه د ګمراه کونکي معلوماتو سره د AI ماډلونو چلول یا سمبالول دي. پدې کې د ان پټ ډیټا کې د کوچني اختلالاتو معرفي کول شامل دي ترڅو د AI د غلط یا غیر متوقع محصول تولید لامل شي. د مثال په توګه، یو برید کونکی ممکن په یو عکس کې شور یا توری اضافه کړي چې د انسانانو لپاره د پام وړ نه وي مګر د AI ماډل لخوا د غلط طبقه کیدو لامل کیږي. د مثال په توګه، لاندې انځور وګورئ، یوه پیشو، چې د InceptionV3 کمپیلر د چلولو لپاره یو څه بدلون موندلی ترڅو دا ووایی چې دا "guacamole" دی.


اعتبار:
انیش اتلی د لابراتوار د څیړنې ډلې غړی، چې تمرکز یې په مخالفو بریدونو دی

بدلونونه په روښانه توګه څرګند ندي. د یو انسان لپاره، بدلون به په هیڅ صورت کې ممکن نه وي، لکه څنګه چې د پورتنۍ بیلګې څخه څرګندیږي. یو انساني لوستونکی به کومه ستونزه ونلري چې عکس په ښي اړخ کې د ټبي پیشو په توګه طبقه بندي کړي. مګر په عکسونو ، ویډیوګانو ، متن یا آډیو کې کوچني بدلونونه کولی شي د AI سیسټم چل کړي ترڅو هغه شیان وپیژني چې شتون نلري یا هغه شیان له پامه غورځوي چې شتون لري ، لکه د سټاپ نښه.

دا ډول بریدونه د AI سیسټمونو ته جدي ګواښونه رامینځته کوي چې په کره او معتبر وړاندوینو تکیه کوي ، لکه د ځان چلولو موټرې ، بایومتریک تصدیق ، طبي تشخیص ، د مینځپانګې فلټر کول او داسې نور.

د AI هیلوسینیشن څومره خطرناک دی؟

د AI هیلوسینیشن خورا خطرناک کیدی شي ، په ځانګړي توګه پدې پورې اړه لري چې د AI سیسټم کوم ډول تجربه کوي. هر ډول ځان چلونکي موټرې یا د AI معاونین چې د کارونکي پیسې مصرف کولو توان لري یا د AI سیسټم آنلاین ناخوښه مینځپانګې فلټر کولو لپاره باید په بشپړ ډول د باور وړ وي.

مګر د دې ساعت بې دلیل حقیقت دا دی چې د AI سیسټمونه په بشپړ ډول د باور وړ ندي مګر په حقیقت کې د هیلوسینشنونو خطر لري. حتی د نن ورځې خورا پرمختللي AI ماډلونه له دې څخه معاف ندي.

د مثال په توګه، یو برید شو د ګوګل کلاوډ کمپیوټري خدمت د چورلکې په څیر د ټوپک په ګنډلو کې چالان کړ. ایا تاسو تصور کولی شئ که په اوس وخت کې، AI د دې ډاډ ترلاسه کولو مسولیت درلود چې هغه کس وسله وال نه و؟

بل دښمن برید وښوده چې څنګه د سټاپ نښه کې د کوچني عکس اضافه کول دا د AI سیسټم ته نه لیدونکي کوي. په لازمي ډول، دا پدې مانا ده چې د ځان چلولو موټر کولی شي د هیلوسینټ کولو لپاره جوړ شي چې په سړک کې د تمځای نښه شتون نلري. که نن ورځ د ځان چلولو موټرونه واقعیت وای نو څومره پیښې به پیښ شي؟ له همدې امله دوی اوس نه دي.

حتی که موږ اوس مهال مشهور چیټ شوونه په پام کې ونیسو، هیلوسینشن کولی شي غلط محصول تولید کړي. مګر هغه خلک چې نه پوهیږي چې د AI چیټ بوټونه د هیلو سره مخ دي او د AI بوټو لخوا تولید شوي محصول نه تاییدوي، په غیر ارادي ډول غلط معلومات خپروي. موږ باید تشریح نه کړو چې دا څومره خطرناک دی.

برسېره پر دې، د دښمن بریدونه د اندیښنې وړ اندیښنې دي. تر اوسه پورې، دوی یوازې په لابراتوارونو کې ښودل شوي. مګر که چیرې د ماموریت مهم AI سیسټم په ریښتینې نړۍ کې دوی سره مخ شي، پایلې یې ویجاړونکي وي.

حقیقت دا دی چې د طبیعي ژبې ماډلونو ساتنه نسبتا اسانه ده. (موږ نه وایو چې دا اسانه ده؛ دا لاهم خورا ستونزمن ثابتیږي.) په هرصورت، د کمپیوټر لید سیسټمونو ساتنه په بشپړه توګه مختلف سناریو ده. دا ډیر ستونزمن دی په ځانګړې توګه ځکه چې په طبیعي نړۍ کې ډیر توپیر شتون لري، او انځورونه لوی شمیر پکسلونه لري.

د دې ستونزې د حل لپاره، موږ ممکن د AI برنامه ته اړتیا ولرو چې د نړۍ په اړه ډیر انساني لید ولري چې کولی شي دا د هیلوسینیشن کم خطر رامینځته کړي. پداسې حال کې چې څیړنه ترسره کیږي، موږ لاهم د مصنوعي استخباراتو څخه خورا اوږده لاره یو چې کولی شي د طبیعت څخه اشارې واخلي او د هیلو له ستونزې څخه ځان وژغوري. د اوس لپاره، دوی یو سخت حقیقت دی.

په عموم کې، د AI hallucinations یوه پیچلې پدیده ده چې د فکتورونو له ترکیب څخه رامینځته کیدی شي. څیړونکي په فعاله توګه د AI سیسټمونو دقت او اعتبار د ښه کولو لپاره د AI هیلوسینیشنونو کشف او کمولو لپاره میتودونه رامینځته کوي. مګر تاسو باید د دوی څخه خبر اوسئ کله چې د AI سیسټم سره تعامل کوئ.

مربوطه لیکنې
مقاله خپره کړئ

یو نظر اضافه کړئ